فهرست مطالب

فیزیک زمین و فضا - سال سی و نهم شماره 2 (تابستان 1392)

فصلنامه فیزیک زمین و فضا
سال سی و نهم شماره 2 (تابستان 1392)

  • تاریخ انتشار: 1392/06/23
  • تعداد عناوین: 15
|
  • رضا امامی، رضا رضایی، مهدی رضاپور صفحات 1-11
    روش های گوناگون معکوس سازی به منظور به دست آوردن رابطه تصحیح تجربی در تعیین مقیاس بزرگی محلی (ML) وجود دارد. در این تحقیق از دو روش پارامتریک معکوس سازی تعمیم یافته (Generalized Inversion) و روش پوجول (Pujol’s method) برای به دست آوردن منحنی تضعیف تجربی استفاده کردیم. تفاوت این دو روش در مراحل به دست آوردن پارامترهای مورد نیاز است. چون در روش معکوس سازی تعمیم یافته برای تعیین این مقیاس، مقادیر بزرگی زمین لرزه، تصحیح ایستگاه ها و مقادیر واسنجی (کالیبراسیون) (مرتبط با پدیده گسترش هندسی و تضعیف ناکشسان) که منعکس کننده تغییرات دامنه به عنوان تابعی از فاصله هستند، به طور هم زمان تعیین می شوند، در نتیجه مقادیر بزرگی و تصحیحات ایستگاهی سرشکن (trade off) می شوند درحالی که در روش پوجول (2003) تصحیحات ایستگاهی جدا و قبل از پارامترهای دیگر محاسبه می شود. در این تحقیق به منظور مقایسه این دو روش، از حجم عظیمی داده که شامل 62523 لرزه نگاشت (waveform) مربوط به 3889 زمین لرزه که با شبکه های لرزه نگاری تهران، سمنان و ساری در محدوده جغرافیایی 48 تا 55 درجه طول شرقی و 34 تا 38 درجه عرض شمالی در بازه زمانی 2 مارس 1997 تا 13 مارس 2011 ثبت شده اند، استفاده شد. در مقایسه تصحیحات ایستگاهی به دست آمده از دو روش بیشترین اختلاف در ایستگاه تهران برابر با 054/0 و کمترین اختلاف در ایستگاه آلاشت برابر با صفر و اختلافی برابر با 074/0 و 0007/0 به ترتیب در مقادیر ضرایب n وk به دست آمد. درنهایت تابع های تصحیح تجربی آن از روش های معکوس سازی تعمیم یافته و پوجول به دست آمد.
    کلیدواژگان: روش معکوس سازی تعمیم یافته، روش پوجول، بزرگی محلی (ML)، منحنی تضعیف تجربی، البرز مرکزی
  • مرتضی فتاحی، نسرین کریمی موید، ریچارد واکر، مرتضی طالبیان صفحات 13-28
    گسل امتدادلغز راست گرد گوک با طولی بیش از 150 کیلومتر، طی سال های 1981 تا 1998 پنج زلزله مخرب تولید کرده است. این زلزله ها مجموعا موجب شکافته شدن 100 کیلومتر بخش شمالی این گسل شدند. سایت مورد بررسی در این تحقیق، گلباف جنوبی است، که در انتهای جنوبی بخش شمالی گسل واقع شده است. به منظور برآورد خطر زلزله ناشی از یک گسل منفرد، آگاهی از نرخ لغزش آن گسل می تواند کمک کننده باشد. جهت تعیین نرخ لغزش، به دو پارامتر جابه جایی و مدت زمان رویداد آن جابه جایی نیاز داریم. طی عملیات صحرایی میزان کل جابه جایی روی گسل گوک حدود 30 متر اندازه گیری شد. یکی از بهترین روش های تعیین نرخ لغزش، استفاده از سن یابی رسوبات با به کارگیری رخشانی (لومینسانس) برانگیخته نوری (OSL) است. از این رو به دو پارامتر دزمعادل دزطبیعی و دزسالانه نیاز است تا بتوان به روش رخشانی، سن نمونه ها را به دست آورد. به منظور اندازه گیری دزمعادل از روش SAR استفاده شد. در این روش ضروری است تا ابتدا توانایی روش برای اندازه گیری و تصحیح تغییر حساسیت در اثر دز، گرما و نور بررسی شود. همچنین لازم است تا با اجرای آزمایش هایی میزان پیش گرمای مناسب و توانایی روش SAR برای بازیابی دز مشخصی که در آزمایشگاه به نمونه داده می شود بررسی شود. با استفاده از آزمایش های صورت گرفته، بهترین دما برای پیش گرما°C 240و °C280 انتخاب شد. در این بررسی دزمعادل دزطبیعی نمونه های برداشت شده با تحلیل داده ها در برنامه آنالیست به روش بافت نگار (هیستوگرام) محاسبه شد. براساس نتایج به دست آمده از این برنامه، آخرین دوران رسوب گذاری 2500 -5400 سال و نرخ لغزش گسل گوک در سطح حدود 5/5-7/1 میلی متر در سال به دست آمد که بیش از نرخ لغزش برآورد شده از سن یابی به روش رادیوکربن است. اگر فرض کنیم که نوعا در هر زلزله 3 متر لغزش رخ دهد، بیشینه دوره بازگشت بین زلزله ها با توجه به نرخ لغزش به دست آمده تقریبا 280-540 سال خواهد بود.
    کلیدواژگان: گسل گوک، نرخ لغزش، رخشانی نوری
  • فاطمه روستایی، علی غلامی، احمد سدید خوی صفحات 29-38
    در این مقاله یک الگوریتم واهمامیخت کور با استفاده از روش منظم سازی تغییر کلی (TV)، به منظور خوانش بسیاردقیق تر زمان رسید نسبی فازهای متفاوت امواج زلزله به کار گرفته شده است. در این روش اثر چشمه و تضعیف به صورت تابعی گاوسی در نظر گرفته شده و همراه با زمان رسید فازهای متفاوت برآورد می شود. به جای روش نرم-1 مرسوم برای TV در مقاله از تابع پتانسیل تنک کننده تر، برای واضح تر کردن زمان رسید فازها استفاده می شود. اهمیت این موضوع در آن است که زمان رسیدها در شناسایی ساختار درونی زمین مورد استفاده قرار می گیرند. برای مثال می توان اطلاعات کلی و اولیه در مورد ساختار لایه مرزی هسته- گوشته (CMB) را با استفاده از اختلاف زمان رسید دو فاز SKS و SPdKS حاصل از زمین لرزه های عمیق ثبت شده با یک شبکه لرزه نگاری باند پهن به دست آورد. به منظور محاسبه اختلاف زمان رسید این دو فاز، ابتدا تابع زمانی چشمه برآورد می شود. سپس مسئله وارون با استفاده از الگوریتم منظم سازی TV حل و روش روی داده های مصنوعی و واقعی اعمال شد. در داده مصنوعی تولید شده، از یک زلزله فرضی در عمق 500 کیلومتر استفاده شد، که ایستگاه های گیرنده این زمین لرزه از فاصله 90 تا 115 درجه با فاصله یک درجه از یکدیگر در نظر گرفته شده اند. داده واقعی مورد استفاده در این تحقیق مربوط به زلزله ای با کانون عمیق در جنوب امریکا به بزرگی است که در تاریخ 12 می 2000 رخ داده و در 30 ایستگاه باند پهن در اروپا ثبت شده است.
    کلیدواژگان: واهمامیخت، زمان رسید، TV، فاز SKS، فاز، SPdKS، الگوریتم IRLS
  • مصطفی عباسی، محمدعلی ریاحی صفحات 39-49
    در لرزه شناسی، تبدیل داده های لرزه ای به پارامترهای کشسان را با عنوان مسائل وارون دسته بندی می کنند. در حال حاضر، از جمله رایج ترین روش های وارون سازی، روش های مبتنی بر مدل و روش های مبتنی بر بهینه سازی است. این روش ها که معمولا آنها را روش های قطعی می نامند، دارای دو مشکل اساسی هستند؛ اول اینکه تفکیک پذیری آنها کم و در حد تفکیک پذیری داده های لرزه ای است و دوم اینکه برآوردی از میزان عدم قطعیت در وارون سازی به دست نمی دهد. خروجی روش های قطعی معمولا یک برآورد نسبتا هموار از مقاومت صوتی است. برای رفع این مشکلات از روش جدیدی در وارون سازی استفاده شد که با نام روش های تصادفی شناخته می شوند. مزیت روش​های تصادفی این است که نه تنها بسامد​های کمتر و بیشتر از طیف بسامدی لرزه​ای را در خود جای می​دهد، بلکه با تولید مجموعه​ای از رخدادها (Realizations) امکان بررسی عدم قطعیت در محاسبات و برآورد​ها را نیز فراهم می​آورد. اما در این تحقیق با اعمال تغییراتی در الگوریتم روش موردنظر، از این روش برای محاسبه تک مرحله​ای تخلخل استفاده شده است که نتایج حاصل از آن، انطباق قابل قبولی با داده​های تخلخل نگارهای چاه دارد.
    کلیدواژگان: وارون سازی لرزه ای، وارون سازی تصادفی، شبیه سازی زمین آماری، مقاومت صوتی، تخلخل
  • عبدالرضا صفری، محمدعلی شریفی، حمیدرضا باقری، یحیی الله توکلی صفحات 51-77
    با پرتاب جفت ماهواره GRACE (Gravity Recovery And Climate Experiments) در سال 2002، این امکان به وجود آمد که بتوان تغییرات میدان گرانی را به صورت ماهیانه را با دقت زیاد و در مقیاس جهانی به دست آورد. یکی از کاربردهای این مدل های ماهیانه در به دست آوردن تغییرات میدان گرانی ناشی از تغییرات جرم سطحی به علت پدیده های هیدرولوژیکی است. اما داده های پتانسیلی جفت ماهواره GRACE دارای نوفه ای هستند که با افزایش درجه ضرایب ژئوپتانسیل افزایش می یابد. برای به دست آوردن مدل های تغییرات میدان گرانی (جرم سطحی) با استفاده از این داده ها، باید این نوفه را حذف کرد. در این مقاله از دیدگاه مسائل معکوس مسئله کاهش نوفه بررسی شده و از ایده راهبرد پایدارسازی تیخونوف تعمیم یافته در زیرفضای سوبولف برای کاهش نوفه استفاده شده است. برای ارزیابی ایده معرفی شده، در حوزه آبی رودخانه می سی سی پی (Mississippi river basin) از مشاهدات چاه های پیزومتری (Piezometric Wells) و مدل هیدرولوژی GLDAS (Global Land Data Assimilation Systems) و در حوزه های آبی آمازون (Amazon river basin)، آلبانی (Albany River)، سومالی (Somalia)، دانوب (Danube) و چین شمالی (North China) از مشاهدات در محل تخلیه (In-situ Run off) و داده های واگرایی شار رطوبت (Moisture flux divergence) مشاهداتی با ابزاری مانند رادیوسوند (Radiosonde) و یا مدل های آب هواشناسی (Hydro-Meteorology models)، استفاده شده است. ارزیابی نتایج نشان دهنده عملکرد مناسب روش عرضه شده بود و نتیجه به دست آمده از طریقراهبرد پایدارسازی «تیخونوف تعمیم یافته در زیرفضای سوبولف (Generalized Tikhonov in Sobolev Subspace)» نتایج بهتری نسبت به سایر روش ها به دست می دهد.
    کلیدواژگان: مدل تغییرات جرم سطحی، نوفه، بسط مقدار منفرد، پایدارسازی، تیخونوف تعمیم یافته، زیرفضای سوبولف
  • کمال علمدار، ابوالقاسم کامکار روحانی، عبدالحمید انصاری صفحات 79-94
    تابع های ویژه اویلر و سیگنال تحلیلی نقش اساسی در تفسیر خودکار داده های میدان پتانسیل به ویژه داده های مغناطیس سنجی ایفا می کنند. در این مقاله با ترکیب این دو تابع روشی خودکار برای تفسیر داده های مغناطیس سنجی دو و سه بعدی عرضه شده است. با این روش هر دو عمق و شاخص ساختاری (نوع توده) مربوط به توده های زیرسطحی برآورد می شود. معادله نهایی از جای گذای مشتقات معادله اویلر در تابع سیگنال تحلیلی حاصل می شود. این روش روی داده های مغناطیسی مصنوعی مدل های گوناگون و در اعماق متفاوت به کار برده شده است و در همه موارد، نتایج قابل قبولی را به دست داده است. همچنین این روش روی داده های مغناطیس هوایی فلات ییلگارن استرالیای غربی به کار رفته که منجر به بارزسازی دایک های موجود شده است. ضمنا این روش با موفقیت روی داه های مغناطیس سنجی زمینی نیم رخی در معدن سنگ آهن مرکزی ایران (بافق) به کار رفته و نتایج آن با استفاده از مدل سازی معکوس صحت سنجی شده است.
    کلیدواژگان: اویلر، سیگنال تحلیلی، میدان پتانسیل، ییلگارن، سنگ آهن ایران مرکزی، مدل سازی معکوس
  • بهروز اسکویی، صفیه امیدیان صفحات 95-110
    در این تحقیق با استفاده از روش مگنتوتلوریک به بررسی ساختار زیرسطحی دریاچه هویر واقع در جنوب شرقی آتشفشان دماوند پرداخته شده است. دو فرض برای ایجاد دریاچه هویر وجود دارد. این دو فرض عبارت اند از: ایجاد دریاچه هویر در قالب فعالیت های یخچال های کواترنری در نتیجه حرکت و ذوب شدن آنها و دیگری فعالیت گسل مشا. به این منظور شواهد ژئوفیزیکی و زمین شناسی مرتبط با تحقیقات صحرایی برای یافتن پاسخی منطقی در این مورد به کار گرفته شد. یک نیم رخ مگنتوتلوریک با امتداد شمالی- جنوبی در زیر دریاچه هویر طراحی شد. پس از برداشت، پردازش و وارون سازی دو بعدی داده ها با توجه به مدل دو بعدی به دست آمد و همچنین شواهد زمین شناسی و زمین ساختی منطقه، وجود یک توده کمتر مقاوم با مقاومت ویژه حدود 60 اهم متر در قسمت جنوبی دریاچه مشخص شد. عمق تا سطح این توده تقریبا 500 متر و عمق پایین آن حدود 4500 متر تشخیص داده شد. به نظر می رسد که دلیل وجود این توده کمتر مقاوم نزدیکی این ناحیه، از یکسو به زون خرد شده گسل مشا و فعالیت گسل های جانبی ناشی از آن مربوط و ازسوی دیگر وجود آثار خردشدگی ناشی از حرکت و ذوب یخچال های کواترنری است. در قسمت شمال این نیم رخ (نزدیک دریاچه)، توده مقاومی با مقاومت ویژه حدود 1000 اهم متر در عمق 300 متری با ضخامت حدود 400 متر شناسایی شد که احتمالا مربوط به سازند مبارک و جیرود تفکیک نشده و سازنده پی سنگ دریاچه است.
    کلیدواژگان: البرز مرکزی، دریاچه هویر، زون خرد شده، گسل مشا، مگنتوتلوریک
  • نیلوفر اکبری مقدم، عباسعلی علی اکبری بیدختی، پرویز ایران نژاد صفحات 111-126
    سرمایش در کف حوضه محصور به توپوگرافی، تابع عوامل متفاوتی است که مهم ترین آنها فرایندهای تابشی و فرارفتی محلی ناشی از جریان های زهکشی است. در این پژوهش از مدل بسته هوا برای توصیف شیب باد استفاده شده و با فرض صفر بودن شار گرمای نهان در حوضه موردنظر، اثر شیب باد بر انتقال گرمای محسوس، در آن مورد بررسی قرار گرفته است. بر این اساس مدلی عددی برای برآورد میزان سرمایش شبانه در طول یک شب آرام و صاف در حوضه اجرا و توزیع قائم میانگین دمای پتانسیلی و سرعت شیب باد برآورد شد. نتایج نشان می دهد که افت دما در یک عمق ثابت در حوضه مخروطی نسبت به حوضه کاسه ای و در حوضه کاسه ای نسبت به حوضه هموار و همچنین در حوضه های عمیق تر بیشتر است. همچنین حوضه ای با خاک خشک نسبت به حوضه ای با خاک مرطوب متحمل سرمایش شبانه بیشتری می شود و بیشترین عامل موثر در دمای صبح روز بعد مقدار دمای پتانسیلی اولیه در هنگام عصر، ارزیابی شد.
    برای راستی آزمایی نتایج مدل، حوضه آیزو (واقع در کشور ژاپن) و برای پیش بینی سرمایش شبانه بر اثر آن، حوضه رفسنجان (واقع در استان کرمان) مورد بررسی قرار گرفت. بررسی ها در ماه های انتقالی نشان می دهد که تقریبا در 65 % روزهایی که در عصر آنها دمایی کمتر از C ̊5/9 در ایستگاه رفسنجان تجربه شده اند، دمای هوا در صبح روز بعد به زیر صفر رسیده است.
    کلیدواژگان: سرمایش شبانه، فرونشست، حوضه، حوضچه هوای سرد، گرمای محسوس، مدل پیش بینی دما
  • معصومه احمدی حجت، فرهنگ احمدی گیوی، سهراب حجام صفحات 127-138
    یکی از مهم ترین سامانه های جوی در فصل زمستان نیمکره شمالی و در منطقه اوراسیا که نقش مهمی در تغییر کمیت های جوی دارد، پرفشار سیبری است. در این مقاله، روند خطی تغییرات سالانه شدت مرکز این سامانه و تاثیر آن روی برخی از کمیت های هواشناختی در مناطق فراحاره ای نیمکره شمالی در یک دوره 60 ساله (از 1948 تا 2008) با استفاده از داده های NCEP/NCAR بررسی شد. نتایج نشان می دهد که فشار تراز دریا در مرکز پرفشار سیبری در ابتدای این دوره با روند ملایم hPa 10/1 در هر دهه تقویت شده، اما از اوایل دهه هفتاد به بعد، با روند hPa 12/0- در هر دهه تضعیف شده است. ضریب همبستگی بین شاخص پرفشار سیبری و دمای دومتری از سطح زمین در منطقه مرکزی پرفشار سیبری در طول دوره مورد بررسی برابر با 46/0- است که نشان دهنده روند افزایشی دما با آهنگ 13/0 درجه سلسیوس در هر دهه بر روی این منطقه است. همچنین با محاسبه شاخص های دورپیوندی، مشاهده می شود که تاثیر این سامانه روی متغیرهای جوی بسیار فراتر از محدوده استقرار آن است. ارتباط بسیار نزدیک با مانسون زمستانی شرق آسیا، افزایش شرایط مناسب برای چرخندزایی روی دریای مدیترانه و تقویت فرارفت هوای گرم از شمال افریقا تا شرق دریای مدیترانه و از آنجا تا شمال اروپا از جمله این تاثیرات هستند. به علاوه، نتایج حاکی از آن است که پرفشار سیبری یک پدیده محدود به سطوح پایین جو نیست و با جریان های هوا در سطوح فوقانی جو نیز در ارتباط است. برای نمونه، می توان به تقویت جت جنب حاره ای در شرق آسیا و دریای مدیترانه، وجود یک قطار موج از شرق اقیانوس اطلس تا غرب اقیانوس آرام به شکل مقادیر مثبت و منفی ضرایب همبستگی بین شاخص پرفشار سیبری و ارتفاع ژئوپتانسیلی سطوح میانی و بالاتر جو اشاره کرد.
    کلیدواژگان: شاخص پرفشار سیبری، روند خطی، دورپیوند، مانسون زمستانی شرق آسیا، جت جنب حاره ای
  • سمیه سومندر *، سید جلیل الدین فاطمی، سعید دوست محمدی صفحات 139-143

    بررسی ترکیبات جرمی با انرژی ترین پرتوهای کی هانی یکی از چالش های محققان نجوم ذره ای است. بررسی پرتوهای کی هانی در این حد انرژی، به علت شمار بسیار کم آنها، خالی از اشکال نیست. در این پژوهش پارامترهای گوناگون بهمن ها از جمله پارامتر عمر، تعداد کل الکترون ها ونیز میون ها که مقادیر هرکدام از آنها با در نظر گرفتن توزیع های سطحی الکترونی و میونی رابطه نیشیمورا- کاماتا-گرایزن (NKG) محاسبه شده اند. به منظور تفکیک جرمی بهمن ها، مقایسه ای از نسبت تعداد کل میون ها به الکترون ها محاسبه شده که از داده های تجربی آرایه های یاکوتسک با نتایج شبیه سازی نرم افزار کورسیکا که برای ترکیبات جرمی متفاوت عرضه شده است، استفاده می شود. مقایسه نتایج حاصل از داده های تجربی با نمودارهای شبیه سازی شده، افزایش ترکیبات جرمی در گستره ی انرژی های بیشتر از (حدود انرژی اثر قطع GZK) را نسبت به انرژی های کمتر نشان می دهد. افزایش ترکیبات جرمی پرتوهای کی هانی اولیه با انرژی، دلالت بر منشا کهکشانی این پرتوها دارد.

    کلیدواژگان: پرتو کیهانی، بهمن گسترده هوایی، مولفه میونی، مولفه الکترونی
  • فرحناز تقوی، ابوالفضل نیستانی، سرمد قادر صفحات 145-170
    پیش بینی عددی مقدار بارش مانند دیگر کمیت های هواشناختی در سطح زمین با خطا همراه است و همواره تلاش می شود با به کارگیری روش های مناسب، مقدار خطا کاهش یابد. بدین منظور نیاز به ارزیابی خروجی مدل های عددی به منظور سنجش میزان تطابق بین پیش بینی ها و مشاهدات برای انتخاب بهترین حالت وجود دارد. در این تحقیق، روش هایی برای ارزیابی پیش بینی های بارش کمی معرفی خواهد شد. شیوه ارزیابی رایج در پیش بینی بارش، روش های دسته ای است که اساسا بر پایه جدول های توافقی است. مشاهدات X و پیش بینی های Y به وقایع دو بخشی براساس اینکه آنها بیشتر از یک آستانه آهنگ بارش ثابت u باشند، تبدیل می شوند. سپس امتیازات ارزیابی دودویی از جدول های توافقی در بعضی آستانه های بارشی برآورد می شود. نتایج ارزیابی برای پیش بینی های بارش نشان داد که الگوی کلی نوارهای بارشی را مدل WRF به درستی روی ناحیه برآورد می کند اما در دامنه بارش ها مشکلاتی وجود دارد. همچنین امتیازات مهارتی برای آستانه های متفاوت روی حوزه مورد تحقیق برای کل بازه یک ماهه و روزهای اوج بارش، بیانگر عملکرد نسبتا مطلوب مدل در رخداد بارش در بیشتر نواحی است. برای آستانه بارش 1/0 میلی متر مدل در بیشتر ایستگاه های همدیدی منتخب تعداد دفعات بارش را به درستی برآورد می کند و امتیاز مهارتی مطلوبی دارد، اگرچه هنوز دامنه بارش های برآورد شده دارای مشکلاتی است. همچنین امتیازات ارزیابی مدل در برآورد پیش بینی های بارش 24 ساعته نسبت به پیش بینی های بارش 48 ساعته بهتر است.
    کلیدواژگان: ارزیابی پیش بینی، WRF، بارش، جدول توافقی، ایران
  • سید ابوالفضل مسعودیان، محمد دارند * صفحات 171-186

    هدف این پژوهش شناسایی ارتباط بین دو الگوی دریای شمال-خزر و شرق اروپا- شمال شرق ایران با بسامد رخداد سرماهای فرین ایران زمین طی دوره سرد سال است. برای اجرای آن از داده های میانگین دمای روزانه ی 663 ایستگاه همدید و اقلیمی روی پهنه ایران طی بازه زمانی 1/1/1962 تا 31/12/2004 به مدت 15706 روز استفاده شد. داده های دمای روزانه به کمک روش درون یابی فضایی کریگینگ در یاخته هایی با ابعاد 15 × 15 کیلومتر درون یابی شدند. چون هدف بررسی ارتباط بین رخداد سرماهای فرین هر یاخته در دوره سرد سال با دو الگوی دریای شمال-خزر و شرق اروپا- شمال شرق ایران بود یک ماتریس با ابعاد 7187×7853 روز به دست آمد که روی سطرها روزها و روی ستون ها یاخته ها (7187) قرار گرفت. سپس به کمک روش فوجیبه و همکاران (2007) بسامد رخداد سرماهای فرین ایران برای هر ماه از دوره سرد سال محاسبه شد. ارتباط بین رخداد سرماهای فرین هر یاخته در هر ماه از دوره سرد سال با دو الگوی دریای شمال-خزر و شرق اروپا- شمال شرق ایران به کمک روش همبستگی و رگرسیون خطی برآورد شد. به طورکلی نتایج این پژوهش نشان داد که رخداد سرماهای فرین نیمه غربی کشور ارتباط مستقیم و معنی داری با الگوی دریای شمال-خزر دارد. فاز مثبت الگوی دریای شمال-خزر منجر به افزایش رخداد سرماهای فرین در نیمه غربی کشور می شود. همچنین یافته ها بیانگر آن است که نقش الگوی شرق اروپا- شمال شرق ایران به مراتب بیشتر از الگوی دریای شمال- خزر است. به طوری که نه تنها گستره مکانی مناطق دارای ارتباط معنی دار بیشتر است، بلکه شدت ارتباط نیز به مراتب بیشتر است. به نظر می رسد با توجه به ویژگی های دو الگوی مورد بررسی، برای نیمه غربی کشور، بررسی ارتباط بین بسامد رخداد سرماهای فرین با الگوی دریای شمال- خزر و برای کل ایران، الگوی شرق اروپا- شمال شرق ایران نتایج بهتر و دقیق تری را برای توجیه بسامد رخداد سرماهای فرین نشان می دهد.

    کلیدواژگان: سرماهای فرین، الگوی دریای شمال، دریای خزر، الگوی شرق اروپا، شمال شرق ایران
  • امیر محمدیها، محمدحسین معماریان، محمد ریحانی پروری صفحات 187-204
    رادار هواشناسی برای برآورد بارش از رابطه بازتابش- بارندگی Z=aRbبا ضرایب a،bبهره می برد که این ضرایب از بارشی به بارش دیگر متفاوت هستند. این مقادیر در رادار تهران 200 a= و 6/1 b=در نظر گرفته می شوند که مناسب بارش های ملایم است. این امر موجب بروز خطا در برآورد بارش با رادار در بارندگی های گوناگون خواهد شد.
    هدف از این تحقیق، ارزیابی(تصحیح) برآوردهای رادار هواشناسی تهران از میزان بارش است. ازاین رو، در این بررسی، 3 بازه 1 تا 4 دسامبر 2010، 8 تا 11 ژانویه 2011 و 15 تا 18 ژانویه 2011 که در همه آنها بارش باران گزارش شده بود انتخاب شد. به منظور بررسی نحوه برآورد رادار تهران از میزان بارش 3 ایستگاه باران نگاری خودکار پاکدشت، قم و کوشک نصرت در نظر گرفته شد.
    نتایج اولیه بررسی نشان می دهد رادار هواشناسی تهران مقادیر بارش را کمتر از مقدار ثبت شده آن با باران نگار ها برآورد می کند و این اختلاف میان رادار و باران نگار در قله های بارش بیشتر می شود. به منظور تصحیح مقادیر برآوردی بارش رادار تهران، برآوردهای رادار هواشناسی تهران به کمک داده های بارش این سه ایستگاه باران نگاری خودکار و با استفاده از رابطه لگاریتمی Z-R ارزیابی شد. به کمک این رابطه برای هر تاریخ بارش مقادیر جدیدی برای ضرایب معادله به دست آورده شد. پس از رسم معادله وایازشی خطی و به دست آوردن ضرایب جدید برای برآورد شدت بارش، روند تغییرات بارش رادار پیش و پس از تصحیح به همراه روند تغییرات بارش ثبت شده باران نگار رسم شد. در ادامه، نتایج نشان دهنده بهبود بسیار خوب برآوردهای رادار پس از اعمال ضرایب جدید است. نتایج مقایسه بارش تجمعی 24 ساعته برآورد شده رادار با بارش باران نگار در این 3 ایستگاه نشان می دهد بارش برآوردی رادار در ابتدا در حدود 40% بارش باران نگار در ایستگاه های متفاوت است و پس از تصحیح ضرایب این مقدار به بالای 90% مقادیر ثبت شده در باران نگار می رسد که نشان دهنده مناسب بودن ضرایب جدید به دست آمده برای معادله برآورد بارش رادار تهران است.
    کلیدواژگان: بارش، رادار هواشناسی، بازتابندگی، ارزیابی، باران نگار خودکار، تهران
  • حسین زمردیان، علیرضا آزموده اردلان، نسرین خدابخش شهرستانی * صفحات 205-214

    هدف از این تحقیق، اعتبار سنجی مدل های جهانی کشند اقیانوسی، FES99، NAO.99b، FES2004، TPXO6.2، TPXO7.1، در آب های خلیج فارس و دریای عمان و انتخاب یک مدل بهینه درمنطقه است تا بتوان از آن برای تعیین ویژگی های کشند و تعیین سطح متوسط تراز دریا استفاده کرد. به منظور اعتبار سنجی مدل ها، نتایج تحلیل کشندی حاصل از آنها با نتایج تحلیل کشندی برمبنای مشاهدات کشندسنج های ساحلی در خلیج فارس و دریای عمان مقایسه شد. در این تحقیق برای دستیابی به نتایج تحلیل کشندی براساس داده های ایستگاه های کشند سنجی (جاسک، چابهار، شهیدرجایی، بوشهر، امام حسن، کنگان)، دو روش نرم افزار فورمن و روش تحلیل فوریه به همراه کمترین مربعات به کار برده شد. نتایج حاصل از مدل های جهانی کشند اقیانوسی در مقایسه با نتایج کشندسنج ها، هر دو روش نشان دادند که اگرچه نتایج همه مدل ها بهترین انطباق را با نتایج کشندسنج های واقع در بندرهای جاسک و چابهار (ایستگاه های نزدیک به دریای آزاد) را نشان می دهند لیکن مدل FES2004، بهترین تطابق را با نتایج حاصل از کشندسنج ها در منطقه دارد، به طوری که در مقایسه با نتایج کشندسنج های حاصل ازمدل سازی کشندی، دارای کمترین RSS برای rmsدامنه (5843/8 سانتی متر)، است و همچنین مدل FES2004 در مقایسه با نتایج حاصل از نرم افزار فورمن کمترین RSSبرای rms دامنه (795/8 سانتی متر) وکمترین RSS برایRMS بردار تفاضل تابع موج (378/9سانتی متر) در منطقه مورد بررسی را دارد.

    کلیدواژگان: کشند، مدل های جهانی کشند اقیانوسی، مولفه های کشندی، سطح متوسط دریا، کشندسنج
  • بیژن شورچه، مهدی معتق، محمدعلی شریفی صفحات 215-225
    میدان جابه جایی حاصل از فعالیت هم لرزه گسل های شیب لغز (نرمال و معکوس) و امتداد لغز (چپ گرد) با استفاده از آنالیز عددی المان محدود در یک محیط همسانگرد همگن کشسان خطی برآورد شده است. با کمک روش عددی المان محدود می توان پیچیدگی های محیط واقعی را برای تولید تابع های گرین دقیق تر و به کارگیری در حل مسئله معکوس به منظور استخراج نرخ لغزش گسل ها، مدل سازی کرد. به همین منظور با به کارگیری المان های تماسی در سطح گسل میدان جابه جایی حاصل از گسل های عمقی و امتدادلغز با مقدار جابه جایی واحد محاسبه شد. گسل شیب لغز، سطحی در نظر گرفته شده و عرض آن 20 کیلومتر است که برای مدل سازی محیط نیم فضا طول و عمق محیط به ترتیب 1000 و 500 کیلومتر لحاظ شده است و در مقابل ابعاد گسل بزرگ است. طول و عرض گسل امتداد لغز به ترتیب300 و 20 کیلومتر و ابعاد محیط نیم فضا 1000، 300 و 120 کیلومتر است. گسل شیب لغز در محیط دوبعدی و گسل امتدادلغز در محیط سه بعدی مدل سازی شده است. میدان جابه جایی حاصل از مدل عددی با مدل تحلیلی اوکادا مقایسه شده است. مقایسه نشان می دهد که انطباق قابل قبولی بین میدان جابه جایی افقی و قائم حاصل از مدل عددی و تحلیلی وجود دارد.
    کلیدواژگان: گسل شیب لغز، گسل امتداد لغز، میدان جابه جایی، روش المان محدود
|
  • Reza Emami, Reza Rezaei, Mehdi Rezapour Pages 1-11
    The idea of measuring the size of an earthquake by means of an instrumental estimation of the energy released at the focal point led Richter (1935) to the creation of the first scale of magnitude. The concept of magnitude is based on the fact that amplitudes of seismic waves depend on the energy released at the focal point after it has been corrected for their attenuation during their propagation. Distance-correction function with the assumption
  • Morteza Fattahi, Nasrin Karimi Moayed, Richard Walker, Morteza Talebian Pages 13-28
    Iran is one of the most tectonically active regions on the Alpian-Himalian earthquake belt (Figure 1). The Gowk fault located in Kerman Province، eastern Iran، is a part of Sabzevaran-Gowk-Nayband system of strike-slip faults that accommodate north-south right-lateral shear along the western margin of Dasht-e-Lut. Its length is more than 150 km. collectively; the northern part of the fault has been ruptured by five destructive earthquakes between 1981 and 1998. No activity has been seen in the southern segment of the fault. So the southern segment which is our site of study will remain a potential for further earthquakes. Estimating the slip rate of a single fault is one of the most important parameters to assess the hazard of that fault. In order to determine the slip rate، two parameters، displacement and the duration of the displacement، are needed. In the south Golbaf basin the fault is composed of three main strike slip segments arranged in a right-stepping pattern (Figure 3). Field investigations illustrated around 30 m right-lateral displacement on the fault. We used two main approaches for dating، radiocarbon and optically stimulated luminescence. Two 14C samples and three OSL samples were collected at a 3 m-high exposure of the lakebed on the eastern side of the fault at 29:47: 30 N 57:46: 28 E (Figure 4، Figure 5). The first quantitative estimate of the Holocene slip rate on the Gowk fault was provided using 14C dating result of the two wood fragments which were taken with OSL samples (Walker et al.، 2010). In this study، we have tried to determine the slip rate of Gowk fault by means of luminescence dating. Luminescence dating is a chronological method that has been used extensively in the earth science. In this method، the event being dated is the last exposure of the sample to daylight. Hence the determined age is the time of the sedimentation which has covered the older sediments. As fault has displaced the rivers in the Golbaf Lake، and the rivers have cut the existing lake bed sediments، therefore last activity of the Gowk fault has occurred after the last sedimentation in the lake. If we date the age of last sedimentation of the Golbaf Lake، we will be able to calculate the fault slip rate، using the relevant age and displacement. Luminescence dating is based on the emission of light (natural luminescence signal) by commonly occurring minerals، principally quartz and feldspar. These minerals act as a dosimeter in nature، recording the amount of radiation to which they have been exposed according to the decay of radioactive isotopes such as uranium (U)، thorium (Th) and potassium (K). To date a sample using one of the luminescence dating methods، two parameters، the equivalent dose and dose rate، are needed. Single aliquot regeneration (SAR) protocol was used to determine the equivalent dose (De). Ideally، after chemical preparation، we have a sample of just quartz grains. However، this is not always the case. We sometimes face feldspar contamination which means all the feldspar grains have not been removed. Underestimating the age would be a consequence since we are dealing with anomalous fading. This means that the size of the observed luminescence signal decreases as the sample is stored in nature or the laboratory. To identify the purity of quartz in the aliquot، we usually introduce a simple Post IR measurement in the end of SAR experiments. This is a problem if the infrared signal (emitted from feldspar) is more than 10% of the blue signal (emitted from quartz). To sort out this problem we reject the result of that aliquot. However، if the majority of aliquots show this problem، no reliable De can be calculated. For quartz samples that demonstrate such problem after sufficient time of HF etching، the alternative way would be to use POST-IR method. As Golbaf samples suffered from this problem we applied POST-IR method to find the De for these samples. However، some factors، such as the ability of SAR to correct the sensitivity change and recovering the given lab dose were checked in order to insure us that the age results achieved by SAR protocol are trustworthy. Equivalent doses were calculated by analyzing the data with Analyst software. The results are shown in table1. By considering the equivalent dose calculated from the Histogram method and using the following formula، the age of the collected samples was determined: Age (ka) = equivalent dose (Gy) / dose rate (Gy/ka) (1) The results of the dose rates and ages for the three samples (GB1، GB2 and GB3) are shown in table2. By considering the ages calculated for the three samples and their depths، and extrapolation diagram، we could find the age to be 2800-5400 yrs at the surface (diagram1). So assuming the time of faulting to be close to the age of the lake surface، the slip rate of the Gowk fault would be 5. 5-10. 7 mm/yr. It should be mentioned that this age (2800-5400 yrs) is less than what can be predicted from 14C and there is a possibility of the effect of fading، and as a result the slip rate is more than the estimated slip rate by Walker et al (2010). We suggest dating these samples using potassium feldspar grains، to enable us for comparison between dating result. Because of the complexity of the fault zone in depth، estimating the average return period for the Gowk fault is difficult. However، by assuming a 3-meter slip in every earthquake according to the 1998 Fandogha earthquake، and considering the calculated slip rate، the maximum return period will be 280-540 years. According to this short return period and the fact that the southern part of the fault has not recently generated a destructive earthquake، it will remain a potential for making a destructive earthquake in the region.
    Keywords: Gowk fault, Slip rate, Luminescence
  • Fatemeh Roostaee, Ali Gholami, Ahmad Sadidkhouy Pages 29-38
    The ill-posed inverse problems play an important role in various fields of geophysical studies. Basic information about geophysical models (the unknown parameters) is needed to find a unique and stable solution to such problems. Recent progresses in computational methods and advances in analysis of real world signals provide us suitable tools for extracting more detailed information about geophysical models from noisy، uncertain observations (recorded data). In this paper، we study relative travel time estimation of the individual seismic arrival times using total variation (TV) regularization، a regularization method which has recently attracted much attention of scientist for reconstruction of models having sharp boundaries. Seismic waves convert to different phases when passing through the boundary of earth layers having different geological properties and structure of the materials though which the waves propagate. For example، seismic travel times can be used to inversely determine the velocity field of the area under study via tomography. Furthermore، boundary layer structure at the core-mantle boundary (CMB) can be investigated using SKS and SPdKS timing difference that are recorded by a broadband seismometer arrays. Therefore، accurate measurement of the travel time of seismic phases or their differences is very important. However، robust measurement of the travel time is often difficult، specifically when data are contaminated by noise and lacks clearly defined onsets. Travel time of a particular phase can be determined by several methods including cross-correlation technique and hand picking. The former is done by cross-correlation between the signal of interest and a reference phase. Determination of the reference phase is a major challenge as the accuracy of the process depends significantly on the similarity of it to the desired phase which is to be studied. Hand picking is also challenging because background noise often obscures confident identification of signal initiation. Furthermore، seismic phases are often altered due to scattering، attenuation، multipathing، or anisotropy، making accurate measurements of their travel times even more difficult. Considering these، a preprocessing of the signal is required to improve the signal to noise ratio and sharpen signal onsets such that the process of determining arrival time is more robust. In this paper، we address the problem of accurate determination of seismic arrival times or relative times of different phases. We formulate the effects of source، attenuation، and receiver structure by convolution with a skewed Gaussian and try to remove those effects from the seismogram via deconvolution. Deconvolution is a longstanding problem in many areas of signal and image processing with applications in astronomy، remote-sensing imagery، medical imaging، and other fields working with imaging devices. Two possible deconvolution scenarios are nonblind، where the Gaussian function، considered for degradation، is assumed to be known a priori، and blind، where the Gaussian function is not known a priori. Even in the presence of the perfect degradation، restoration of the path from the observed seismogram is an ill-posed problem needing an appropriate prior to make the solution unique and stable. Numerous algorithms have been developed to address the problem; including least squares type Wiener filter and more sophisticated regularization methods like total variation (TV) regularization. Although the methods can provide satisfactory results، they are generally nonblind and therefore require a good knowledge of the Gaussian blurring function in order to work properly. In reality، however، the degradation function is not known with good accuracy. Therefore، it should also be estimated during deconvolution making the problem more ill-posed. The blind deconvolution which is used in this paper uses a sequential approach where the Gaussian function is first estimated from the data via an L-curve analysis. The estimation of first step is later used in combination with TV yields a piece wise constant reconstruction and preserves the edges of the signal that is important for defining onsets and so accurate measurement of the travel time of seismic phases. TV helps to stabilize the deconvolution and at the same time preserve the discontinuities of the solution. It improves the signal to noise ratio، sharpens seismic arrival onset، and acts as an empirical source deconvolution، thus enables more reliable relative travel time estimation of phase initiation. Instead of the conventional l1-norm used for TV functional، here، we use a more sparsifying potential function for the purpose of sharpening the phase onsets. Due to simplicity and good convergence، an Iteratively Reweighted Least Squares (IRLS) method is used for optimizing the generated objective function. Two different examples are used to investigate the performance of the proposed algorithm: (1) signal restoration of SKS and S (or Sdiff) in synthetic seismograms and (2) the restoration of actual data for 30 seismic recording of a deep focus south American earthquake. The obtained results confirm high performance of the proposed method in calculating time difference of these phases.
    Keywords: Total variation (TV), Deconvolution, IRLS algorithm, Core, mantle boundary CMB, SKS, SPdKS
  • Mostafa Abbasi, Mohammad Ali Riahi Pages 39-49
    In exploration seismology، estimation of elastic parameters of rocks using seismic amplitudes is considered as inverse problems. Nowadays، model-based and more generally optimization-based algorithms are of the most common methods of seismic inversion. These algorithms which are known as deterministic methods، are suffering from two main problems; First، vertical resolution of outputs is very low. The estimated outputs of these methods contain the same frequency content as the seismic bandwidth. So the resolution of estimates will be same as that of seismic data. Second، these methods are not able to prepare any estimation of uncertainty in calculation of output model. That because the deterministic methods generate only one realization of acoustic impedance that is considered as the most probable model. In addition to these problems، the output model of deterministic methods is very smooth estimation of acoustic impedance which makes it inappropriate for continuity evaluation of events and volumetric calculations. In order to solve these shortcomings of deterministic methods، a new algorithm known as stochastic inversion has been proposed which in most common situations، uses Sequential Gaussian Simulation (SGS) of acoustic impedance logs to prepare multiple realizations of acoustic impedance، in such a way that all these realizations are compatible to seismic data. According to this method، first of all a random path is selected through the seismic path. In each grid node of the selected path a pseudo-acoustic impedance log is simulated by SGS method. This pseudo-log is then convolved with the extracted wavelet to produce a synthetic seismogram. In the next stage the synthetic seismogram is compared with the real one to measure the misfit. If the calculated misfit is less than a threshold value، the simulated impedance log will be selected and added to the data set to be used for simulation of future nodes. On the other hand، if the simulated log does not satisfy the maximum allowable misfit، then a new pseudo-impedance log will be simulated until an allowable impedance log is created. This procedure is repeated for all grid nodes of the selected path until the seismic grid is filled with acoustic impedance logs. The above procedure is then repeated using different random paths. As a result، multiple realizations of acoustic impedance will be created that all of them are compatible with original seismic data. Since the output realizations of stochastic inversion are fundamentally simulated models of well logs، it would be obvious that the resolution of these models will be controlled by well logs which are highly more resolvable than seismic data. The ability of stochastic inversion in generation of multiple realizations، make it possible to evaluate uncertainties in estimations.
    Keywords: Seismic inversion, Stochastic inversion, Geostatistical simulation, Acoustic impedance, Porosity
  • Abdolreza Safari, Mohammad Ali Sharifi, Hamid Reza Bagheri, Yahya Allahtavakoli Pages 51-77
    The GRACE mission has provided scientific community Time-variable gravity field solutions with high precision and on a global scale. The GRACE mission was launched on March 2003. This mission consists of two satellites that pursue each other in their orbit. Distance between two satellites in orbit is measured continuously to an accuracy of better than 1 micron using KBR system placed in satellites. As the satellite fly in the gravity field، this distance changes and by monitoring those changes the gravity field can be determined. To reduce non-gravitational accelerations، each satellite has an on-board accelerometer to measure these accelerations (Wahr and Schubert، 2007). Providing profiles of the atmosphere using GPS measurements for gaining knowledge about the atmosphere is another goal of this mission. One of the products of this mission is GRACE LEVEL-2. This product consists of monthly spherical harmonic coefficients up to degree 120. One application of these coefficients is to determine time-variable gravity field. The time-variable gravity field is then used to solve for the time-variable-mass field (Wahr and schubert، 2007). A mathematical model for determining the surface density (mass) variations using spherical harmonic coefficients is presented by Wahr et al. (1998). This mathematical model is as follows: Where، ،، ،، ،، are surface density variations، mean earth density، mean earth radius، Love number of degree، GRACE potential changes، fully normalized Legendre functions، degree and order respectively. Spherical harmonic coefficients from the GRACE are noisy which increase rapidly with increasing degree of geopotential coefficients. In addition، monthly surface mass variations map shows the presence of long، linear features، commonly referred as stripes (Swenson and Wahr، 2006). Hence، in different methods of filtering it is tried to solve both problems. Filtering of the GRACE gravity solutions has been studied extensively. For some of the recent contributions we refer to Wahr et al. (1998)، Chen et al. (2005)، Swenson and Wahr (2006)، Kusche (2007)، Sasgen et al. (2006)، ، Swensonand Wahr (2011)، Save et. al. (2012). In this paper، for filtering the GRACE gravity solutions، we propose a new way of determining the surface mass change formula under the assumptions considered in Wahr et al. (1998) by means of Singular Value Expansion of the Newton’s Integral equation as an Inverse Problem. Let be the potential change caused by just Earth''s surface mass change، then: or in operator form: Where is an integral operator with kernel. Series expansion of the kernel based on Associated Legendre functions is as follows: Now، by means of singular value expansion، singular system for this operator is as follows: where and، ، are singular values، right singular vectors، left singular vectors، respectively. In terms of singular value expansion، the surface density variation can be written as follows: where s are filter coefficients that are determined by regularization methods. In this paper، filter coefficients are determined from regularization methods، such as Truncated SVE، Damped SVE and the Standard and Generalized Tikhonov methods in Sobolev subspace. The numerical results show a good performance of the method “Generalized Tikhonov in Sobolev subspace”، which effectively reduces the noise and the stripes.
    Keywords: Surface Mass Variations Model, Noise, Singular Value Expansion, Regularization, Generalizaed Tikhonov, Sobolev Subspace
  • Kamal Alamdar, Abolghasem Kamkare, Reouhani, Abdolhamid Ansari Pages 79-94
    A variety of semiautomatic methods، based on the use of derivatives of the magnetic anomalies، have been developed for the determination of both of the causative source parameters such as locations of boundaries and depths. One of these techniques is the method of the analytic signal for magnetic anomalies، which was initially used in its complex function form and makes use of the properties of the Hilbert transform. Initially، it was successfully applied on profile data to locate dike like bodies. The method was further developed by Roest et al. (1992) for the interpretation of aeromagnetic maps. Moreover، Bastani and Pedersen (2001) employed the method to estimate many parameters of dike like bodies، including depth، strike، dip، width، and magnetization. Also، Salem et al. (2002) demonstrated the feasibility of the method to locate compact magnetic objects often encountered in environmental applications. The success of the analytic signal method results from the fact that source locations of magnetic anomalies are obtained using only a few assumptions. For example، horizontal positions are estimated by the maxima of the amplitude of the analytic signal (AAS). In addition، depths can be obtained from the shape of the AAS or based on the ratio of the AAS to its higher derivatives. However، a correct estimate of the depth is obtained only when the source corresponds to the chosen model. Several attempts have been made to enable the analytic signal method to estimate both the depth and model type of magnetic sources. Furthermore، a number of automated methods only for source location from 2D (profile) magnetic data have been developed، based on either the local wavenumber. The main advantage of using derived quantities such as the local wavenumber (LW) and amplitude of the analytic signal (AS) is that they are generally independent of source magnetization and dip effects، therefore allowing positional parameters such as depth and horizontal location to be determined more directly than from the magnetic field. Special function such as Euler deconvolution and analytic signal play an important role in potential field data interpretation particularly in the case of magnetic data. In this paper، a new method is proposed based on the combination of these two functions that can lead to automatic interpretation of 2D and 3D magnetic data. In this method both the depth and type of subsurface body will be estimated simultaneously. The final equation is produced with substitution of the Euler deconvolution derivatives in the analytic signal equation. The proposed method has been applied on synthetic and real magnetic data successfully. Also this method is applied on high-resolution aeromagnetic data from Yigarn plateau in Western Australia in which it enhaned the dykes. This method is applied on a ground magnetic profile in Central Iranian Iron ore in Bafgh and the results was tested using inverse modeling.
    Keywords: Euler, Analytic signal, Potential field, Yigarn plateau, Central Iran Iron ore, Inverse modeling
  • Behrooz Oskooi, Safieh Omidian Pages 95-110
    Electromagnetic methods are widely used for the study of subsurface resistivity structures. These methods are based on the response of the subsurface structures to electromagnetic fields. The magnetotelluric (MT) method is an electromagnetic technique that uses the natural، time varying electric and magnetic field components measured at right angles to the surface of the earth، to make inferences about the earth’s electrical structure which in turn can be related to the geology tectonics and subsurface conditions. Measurements of the horizontal components of the natural electromagnetic field are used to construct the full complex impedance tensor، Z، as a function of frequency. Using the effective impedance، determinant of apparent resistivities and phases are computed and used for the inversion. Also the apparent resistivity for DET-mode is computed and used for the 2D inversion. The long- and short-periodic signals originate from fluctuations in the intensity of the solar wind and global lightning activity، respectively. The electromagnetic energy released in discharges، propagates with slight attenuation over large distances in a wave-guide between the ionosphere and Earth’s surface. At large distances from the source this is a plane wave with frequencies from about 10-5 to 105 Hz. The magnetotelluric fields can penetrate the Earth’s surface and induce telluric currents in the subsurface. The MT method uses simultaneous measurements of natural time variations in the three components of the Earth''s magnetic field (Hx، Hy، and Hz)، and the orthogonal horizontal components of the induced electric field (Ex and Ey) to obtain the distribution of the electric conductivity in the Earth''s interior. Magnetotelluric studies are important. They contain information about the fluid content and thermal structure، which are the key parameters for defining the rheology of the crust and upper mantle. This method has been proved to be useful for widespread applications. For example، MT is extensively being used in imaging the fluids in subduction zones and volcanic belts، orogenic regions، delineation of ancient and modern subduction zones and lithospheric studies. 1D and 2D inversions are conducted to resolve the conductive structures. We performed 1D inversion of the determinant data using a code from Pedersen (2004) for all sites. Since the quality of the determinant data was acceptable، we performed 2D inversion of the determinant data using a code from Siripunvaraporn and Egbert (2000). An MT survey was carried out using MTU2000 systems belonged to Upssala University of Sweden. Data are stored on an internal hard disk and are downloaded via a connection. Power is supplied by a 12 V external battery. Three magnetometers and two pairs of non-polariable electrodes are connected to this five-channel data logger. For the registration of magnetic field variations in the range from 10،000 to 0. 001 Hz broadband induction coil magnetometers are used. The electric field variations are registered by measuring potential differences with non-polarizable electrodes. The experimental set-up includes four electrodes، which are distributed at a distance of 100 m in north–south (Ex) and east–west (Ey) direction. They are buried at a depth of about 30 cm and coupling to the soil is improved using water. The ADU logger and magnetometers are located in the centre، whereas the three induction coils are oriented north–south (Hx)، east–west (Hy) and vertical (Hz) at a distance of 10 m from the data logger and at least 1 m from electric field wires and 5m from every conductive object. The vertical coil was buried to 4/5 of its length and covered by a plastic tube in order to prevent recordings from the influence of wind. In this study، the subsurface structure of Havir Lake، in southeast of Damavand volcano has been studied using the Magneotelluric (MT) method. There are two ideas about its generation: activation of Quaternary glaciers due to their movement and melting، and/or a production of Mosha fault. So، we gathered the geological and geophysical evidences related to field work to find a logical reply for this matter. A north-south Magnetotelluric profile was designed in the southern part of the Lake. After acquisition، processing and 1D and 2D inversions of the MT data، with respect to the structural and geological information، a low resistivity body (60 Ohm-m) distinguished in the southern part. Its thickness is about 4000m and starts from a depth nearly of 500m to 4500m. It seems that its existence is due to shear movement of Mosha fault and the debris of glaciers movements. In the northern part of the profile (exactly near the lake) a very high resistive body (1000 Ohm-m) is recognized from the 300m of earth surface with 400m thickness which most probably is the very rigid basement of the lake which probably belongs to inseparable Jiroud and Mobarak formations.
    Keywords: Brittle zone, Central Alborz, Havir lake, Magnetotellurics, Mosha fault
  • Niloofar Akbarimoghadam, Abbas Ali Aliakbari-Bidokhti, Parviz Irannejad Pages 111-126
    In the nighttime، drainage flow occurs along the basin sideslope and advects cold air to the boundary layer over the basin bottom (BBL)، intensifying the cooling rate of the layer. A nocturnal cold air lake develops in the basin، attaining a depth nearly equal to the topographical depth of the basin. Heat budget analysis of the whole basin surface shows that net radiative flux closely balances with sensible heat flux and ground heat conduction. In the daytime، the BBL is warmed not only by sensible heat flux from the surface of the basin bottom، but also by local subsidence heating. This local subsidence above the basin bottom depresses development of the convective boundary layer until the nocturnal cold air lake vanishes completely. The subsidence velocity increases with time after sunrise. Over the whole basin surface، net radiative flux closely balances with sensible and latent heat fluxes. Cooling in an enclosed basin surrounded by topography، is a function of different factors and most notably the local processes of radiation and advection due to drainage flows. In this study، radiative cooling with an air parcel model for down-slope winds with zero latent heat flux assumption، are used to build a numerical scheme for estimating nocturnal cooling in such basin. The meteorological condition is assumed to be calm which is often the case for topographically surrounded basins for the area. The model requires a prescribed potential lapse rate during the night. For validation of the model the data of the Aizu basin in Japan with a good set of measurements is used. For typical model basins، the dependence of the nocturnal cooling on topographic parameters are obtained as follows: (i) The governing parameters are the depth of the basin and a shape parameter. The conical basin with a small shape parameter has more air cooling and a weaker slope wind than a flat bottom basin with a large shape parameter; (ii) Mean sensible heat flux during the night is almost proportional to a cube root of the depth of the basin، but little affected by the shape parameter. Sensitivity to radiational condition، the thermal constant of the ground، and surface roughness are also examined in this study. The results show that for a conical shaped surrounding the temperature drop during the night is more than a case with bowel like shape with the same depth. Also as the depth of the basin increases this temperature drop is large. Also dryer surface of the basin leads to larger radiative cooling and hence lower temperature in comparison to the wetter case. It is also found that the slope of the surrounding slopes does not affect the cooling rate as long as the depth of the basin is kept constant. The results of the model also show that often (> 65% of the times) the morning temperature of the basin surface can reach zero degrees centigrade if the evening temperature is about 9. 5 degrees centigrade or less. Thai can be used to issue warnings to farmers in such areas in order to avoid frost damage to crops. The model is used for Rafsanjan city to predict nocturnal temperature drop in spring seasons. This area with vast pestasous farms is prone to frost damage in spring time.
    Keywords: Night cooling, Subsidence, Basin, Cold pool, Sensible heat, A radiative, advective model
  • Masoomeh Ahmadi-Hojat, Farhang Ahmadi-Givi, Sohrab Hajjam Pages 127-138
    One of the most important atmospheric systems in the Eurasian continent during the Northern Hemisphere winter season is the Siberian high pressure. In this study، using the NCEP/NCAR reanalysis data for winters of 1948-2008، trend of changes in the intensity of the high system center and its effects on some meteorological fields are investigated. The results show that the 2m height Mean Temperature in central Siberian high region were -17. 7 °C during the study period and the Mean Sea Level Pressure (MSLP) were over 1030hPa. The MSLP had a minor linear positive trend of 1. 10hPa/dec (hPa per decade) at the beginning of the 60-years period. Also، a weak negative linear trend of -0. 12hPa/dec occurs in early 1970s. There is a meaningful correlation (-0. 46) between the Mean Temperature averaged on influence area of the central Siberian high and the Siberian High Index (SHI) during the study period، as in most cases enhancement (weakening) of the high center accompanied with cooling (warming) in the region. Calculations indicate a trend of 0. 13 °C/dec warming for the area. The results show that the pressure gradient causes strong north monsoonal currents and thus cold advection toward far-east or east-Asia winter monsoon. Calculated correlation coefficients between the SHI and some meteorology fields indicate that the enhanced Siberian high provides suitable conditions for cyclogenesis over the Mediterranean Sea and development of warm advection from north Africa to east Mediterranean and then to north Europe. Another result indicates that when anti-cyclones over the Siberia form and develop، they act as a barrier to eastward movement of the extra-tropical cyclones. This leads the systems to move to higher latitudes and thus fewer cyclonic system pass from the Siberia and this reduce warm advection over the Siberia. Furthermore، calculated tele-connection correlations show that the system affects atmospheric variables beyond its established region. Enhancement of pressure in the system normally leads to a strong pressure gradient between east Siberian high and west Aleutian high. Correlation coefficients between the SHI and some meteorological fields in the extra-tropical regions of the north hemisphere indicate that the Siberian high could exert impacts on meteorology fields beyond its source region. Examples include a strong relationship between the SHI and the East Asian winter monsoon، enhancement of the suitable conditions for cyclogenesis over the Mediterranean Sea and warm advection intensification in North Africa toward the east Mediterranean Sea and north Europe. Beyond these features، there is intensification of the subtropical jet over the East Asia and the eastern Mediterranean Sea as well as the existence of a wave train in the form of positive and negative correlation coefficients between the SHI and the Geopotential height (GPH) field in middle and upper troposphere. These findings suggest that the Siberian high should not be considered simply as a local low-level phenomenon، and it exerts significant impacts on middle and upper-level circulations.
    Keywords: Siberian high pressure index, Linear trend, Teleconnection, East Asian winter monsoon, Subtropical jet stream
  • Somayyeh Soomandar, Seyyed Jalileddin Fatemi S., Saeed Doostmohammadi Pages 139-143

    The phenomena of Extensive Air Shower (EAS) are produced by the collision of primary cosmic rays (CR) with Energy more than eV with the atmospheric molecules. As a result the electron and muon components (cascades) of EAS develop through the air. The study of such cascades gives important information about the primary CR mass composition as well as its astrophysical origin models. One of the EAS detection methods is by the ground arrays of electron and muon detectors; the data of Yakutsk EAS array located in Russia have been used for primary CR with energy more than eV. In the catalogue of world’s data، the EAS parameters such as electron density، muon density، R shower core distance، E primary energy and arrival directions (Zenith angel ѳ، Azimuth angle Φ) of each shower is given. In this search the different parameters of EAS such as the age parameter، shower size () and total number of muons () are used as mass composition discriminators. The total number of muons and electrons in the shower have been calculated using the lateral distribution functions (LED) of electron and muon of Nishimura-Kamata-Griesen (NKG) formula. The first sensitive parameter to use is where its dependency on EAS energy is studied. It is expected that the ratio should increase from primary Gamma to proton and then in turn to heavy nucleus. The dependency of calculated on energy shows an increase above that could be due to LPM effect of Gamma primaries. At highest energies or the increase of Mass composition above this energy، which because of its high increase of، heavier mass composition above is suggested. The second parameter for investigating EAS mass composition is the EAS age parameter which is also calculated by using LDF of NKG formula. Higher age has flatter electron LDF or higher mass composition. Again it is observed that the age is increased (indicating higher mass) above. The last main parameter to investigate mass composition is the dependency of on. The calculated experimental results have been compared with the CORSIKA simulation work for Gamma، Proton (P) and iron (Fe) cosmic ray primaries. The results suggest a mixed P-Fe composition for energies above and Fe primaries above. In conclusion the study of EAS age and on E، also dependency of on and it،s comparison with the simulation work consistently show an increase of mass composition of cosmic ray above its primary energy. Also because of the increased mass composition of CR (higher charge) it means more deflection of CR in the Galactic magnetic field. Therefore the particles of higher energies (above) are more confined to the galaxy than the lower energies so their sources may be of galactic than extragalactic origin. The results of this search also give a light on the CR Astrophysical origin models named top-down models (10-50 percent of gamma primaries) and bottom-up models (less than 1 percent photons). (The low percent of Gamma primaries is not in the favor of top-down models scenario of no acceleration).

    Keywords: Cosmic ray, Extensive Air Shower, Muon component, Electron component
  • Farahnaz Taghavi, Abolfazl Neyestani, Sarmad Ghader Pages 145-170
    Iran has a complex topography and it consists of rugged، mountainous rims surrounding high interior basins. Because of this condition، in some cases the NWP output has a significant error from mesoscale variations induced by the diverse topography. Iran، covering an area of about 1،648،000 km2، is located in the southwest of Asia approximately between 25° and 40° N and 44° and 64° E. This is predominately a semi-arid to arid region surrounded by Caspian Sea to the north and Persian Gulf to the south and crossed by the impressive Zagros and Alborz Mountains. However، for a next-generation mesoscale forecast model (the Advanced Research Weather Research and Forecasting model، ARW) developed by NCAR (Skamarock et al. 2005)، the performance of this model employed in the operational forecasts over Iran is not fully tested. A few previous model studies (Evans and Smith 2001; Evans et al. 2004; Zaitchik et al. 2007; Marcella and Eltahir 2008; Xu et al. 2009) provided some interesting results for the basic weather simulation in SWA using a regional climate model [the second-generation National Center for Atmospheric Research (NCAR) Regional Climate Model (RegCM2)] or the fifth generation Pennsylvania State University–NCAR Mesoscale Model (MM5) model. They pointed out that the regional model has difficulty producing an accurate simulation of meteorological variables in certain sub regions this includes an accurate description of storm tracks، topographic interactions، and atmospheric stability. On the other hand، verification is a critical component of the development and use of forecasting systems. Ideally، verification should play a role in monitoring the quality of forecasts، providing feedback to developers and forecasters to help improve forecasts، and provide meaningful information to forecast users to apply in their decision-making processes. One of the purposes، in this study is to evaluate the performance of the WRF model in the complex terrain of Iran. This evaluation primarily concentrates on the precipitation forecasts. In this paper، Real-time gridded 24h and 48-h precipitation forecasts from NCAR models (the Advanced Research Weather Research and Forecasting model; WRF model) are verified over Iran from one to 28 February 2007. Network has 209 * 194 points، which have the center point 54E longitude and 32N latitude and the horizontal resolution of main domain is 21km. The observed precipitation data were taken from the FNL (Final Operational Global Analysis data) reanalysis data with horizontal resolution 1°×1°. All forecasts are mapped to a 21km latitude–longitude grid and have been verified against an operational precipitation analysis (more than 100 rain gauges)، mapped to the same grid. In this study، first we will describe the forecasting errors of the WRFARW model for precipitation. Then، we will introduce some techniques for evaluating the forecasts. These techniques are particularly designed to examine the difficult features of the precipitation fields. Forecasting weather variables by numerical models has a discrete nature. Assessment of discrete variables such as precipitation is examined by discrete evaluation techniques and evaluation of quantitative precipitation forecasts (QPF) is a challenging matter because of the noisy، discontinuous and non-normal nature of precipitation. Common method for evaluation of quantitative precipitation forecast is a categorical procedure that is essentially based on contingency tables. X observations and Y forecasts convert to dichotomous events based on both of them more than a constant precipitation rate threshold ‘u’. Then، the behavior of binary categorical verification scores from contingency tables in some rainfall thresholds has been evaluated. Common measures of the binary events evaluation are hit rate، false alarm ratio، false alarm rate، skill scores، correct ratio etc. Some measures from Signal Detection Theory (SDT) such as area under the ROC curve and discrimination distance is used. SDT offers two broad advantages. Firstly، it provide a means of assessing the performance of a forecasting system that distinguishes between the intrinsic discrimination capacity and the decision threshold of the system. The main analysis tool that accomplishes this is the relative operating characteristic (ROC) that is a graph of hit rate against false alarm rate as u varies، with false alarm rate plotted as the X-axis and hit rate as the Y –axis. Secondly، SDT provides a framework within which other methods of assessing binary forecasting performance can be analyzed and evaluated. Due to the complexity of the Iranian plateau and lack of knowledge in the estimation of the physical processes in this area، forecasters should have greater awareness of these limitations of the model when forecasting in this region. Examining the calculated scores for QPF، show that the WRF model correctly estimates the general pattern of precipitation bands but there are problems in the actual rain value. Moreover، skill scores for different thresholds on total investigated area for one month period and in the intensity activity of synoptic systems days show good performance of the WRF model for estimating precipitation in most areas. In addition، using ROC curves gives a measure of performance in all thresholds. For 0. 1mm rainfall threshold at selected synoptic stations، model estimates rainfall frequency properly and skill scores is desirable، although precipitation rate estimates still have problems. In addition، the verification scores of model in estimation of quantitative precipitation in 24 forecasts are better than 48h forecasts. The results suggest that improvements in initialization may be as important، or more so، than improvements in the physics for the land surface processes.
    Keywords: Forecast evaluation, WRF, Precipitation, Contingency table, Iran
  • Seyyed Abolfazl Masoodian, Mohammad Darand Pages 171-186

    One of the effects of climate change is the possible increase in both frequency and intensity of extreme weather events. Extreme weather and climate events have a major impact on ecosystems and human society due to their severity and the fact that they often occur unexpectedly. In warmer climates and during transition seasons، cold extremes have agricultural impacts that are manifested in the damage of crops due to frost. The identification of teleconnections and the analysis of their impact on the atmospheric circulation can be very useful for the understanding of anomalous events at many regions of the planet when one assumes that local forcing may influence the atmosphere circulation at remote locations. Teleconnection patterns are simultaneous correlations in the fluctuations of large scale atmospheric parameters at points on the Earth that are wide apart. The effect of these patterns could be significant throughout the dominant modes of the atmospheric variability. Teleconnection patterns reflect large-scale changes in the atmospheric wave and jet stream patterns، and influence temperature intensity over vast areas. Thus، they are often the culprit responsible for abnormal weather patterns occurring simultaneously over seemingly vast distances. The objective on this study is to clarify whether the frequency of extreme cold temperatures occurrence in Iran during cold period have correlation with North Sea–Caspian pattern (NCP) and East Europe– Northeast Iran (ENEI). In order to study the relation between the monthly numbers of extreme cold temperature day number of Iran during cold period with North Sea–Caspian pattern (NCP) and East Europe– Northeast Iran (ENEI)، temperature data of 663 synoptic and climatic stations during 1/1/1962 to 31/12/2004 has been used. Then temperature on 15×15 kilometer pixels by using Kriging method interpolated over Iran. A matrix that was 7853×7187 has been created that for this period (7853) located on the rows and pixels on the columns (7187). There is no single definition of what constitutes an extreme event. In defining an extreme event some factors that may be taken into consideration include its magnitude، which involves the notion of the exceeding a threshold. The most general and simple، and so more wide used method for defining an extreme event of temperature is based on the definition of frequency of occurrence of the event. In this study، at first the extreme cold days during cold period recognized with Fumiaki Index. Then for each month during cold period، the number of extreme cold temperature occurrence was calculated. Monthly data during cold period of North Sea–Caspian pattern (NCP) and East Europe– Northeast Iran pattern during study period extracted from NCEP/NCAR data site of United States National Oceanic and aAtmospheric Center. The correlation between the monthly numbers of extreme cold temperature days in Iran during the cold period with North Sea–Caspian pattern (NCP) and East Europe– Northeast Iran (ENEI) was calculated. After extracting the number of extreme cold day’s occurrence for each month during the cold period of the year during the study period، the correlation was calculated with North Sea–Caspian pattern (NCP) and East Europe– Northeast Iran (ENEI). Also، the magnitude of explanation coefficient has been calculated. The map of correlation and explanation coefficient are showed in figures 2 to 6. There is a significant correlation between monthly numbers of extreme cold days during cold period with NCP and ENEI at the 95% confidence level. The results showed that there is a positive correlation between the monthly numbers of extreme cold temperature days in Iran during cold period with an North Sea–Caspian pattern. The positive phase results in increase of cold extreme days in western part of Iran. The positive phase of North Sea–Caspian pattern (NCP) accompany with positive anomaly of the 500 hPa geopotential height level in the North Sea and negative anomaly in Caspian Sea. This indicates in cold air advection towards Iran especially in the western parts. In January، the correlation for 95% of Iran area is significant and positive. The highest explained coefficient is observed for the west and northern part of Iran.

    Keywords: Extreme cold temperature, North Sea–Caspian pattern, East Europe– Northeast Iran
  • Amir Mohammadiha, Mohammad Hossein Memarian, Mohammad Reyhani Parvari Pages 187-204
    Meteorological radars estimate the precipitation using a reflection-precipitation relation as Z=aRb with a، b coefficients. These coefficients will change from one precipitation to the other one. For the Tehran radars they are considered as a=200 and b=1. 6. These values are proper when we have moderate precipitations. This assumption causes an error in the estimation of different precipitation which is done by radars. In order to know how the evaluations of rain are done by Tehran radars، we consider the amount of rain in three chosen rain recording stations which are Qom، Kooshk Nosrat and Pakdasht. Our aim of these studies is to evaluate the estimation of the Tehran meteorological radars for different amounts of precipitations. Therefore three intervals، including 11/1/2010-11/4/2010، 1/8/2011-1/11/2011 and 1/15/2011-1/18/2011 have been chosen in which the precipitations have been reported. The primary results indicate that Tehran meteorological radars estimate the amount of the precipitation less than the amounts which are registered by the rain – gauge of meteorological stations. These differences become more when the precipitation rates are considered. To amend the estimated values of the precipitation which are taken by Tehran radars، these amounts are evaluated by data which are given by rain recovery stations and finally are rescaled by the logarithmic relation Z-R. Using this relation new values for the concerned coefficients are obtained for different dates of precipitation. After depicting the linear regression equation and getting new coefficients to estimate the intensity of rain، we can access to a plot which indicates how the precipitation will change by employing the required corrections. We are also able to plot the precipitation changes in the used rain recording stations. The results indicate that we achieve good progress of estimations if we use new coefficients. Comparison of the gathered rain data by radars with the data of the rain recording stations shows a 40% agreement between them. If we use new coefficients، this agreement will increase to 90% which confirm that these new coefficients are appropriate in the evaluation equation of precipitation. Results of this study illustrated that the error of the radar lies in two factors، the first one is that the raindrops absorb some of the radar signals and this causes that return signals to be reduced; therefore more rainfall intensity، weakens the wave reflections The second reason is that the reflectivity values are proportion to sixth power of raindrops diameters and this means that the reflection of radar waves is affected by the droplet size and the larger droplet diameter increases the reflection، while the rainfall measured by rain gauge is not affected by droplet size، and value of the recorded rainfall or precipitation volume is not affected. In other words، the radar estimates precipitation more than the actual amount occurring in rainfall with larger drop size while estimates are less than the actual amount of precipitation in rainfall with smaller drop size.
    Keywords: Rainfall, Meteorological radar, Reflectivity, Evaluation, Rain gauge, Automatic rain writing, Tehran
  • Hosein Zomorodian, Alireza Ardalan, Nasrin Khodabakhsh-Shahrestani Pages 205-214

    In recent years، several ocean tide models have been used to calculate tides using data of satellite and tide gauges data. Global ocean tide models have many applications in various sciences such as geophysics، geology and geodesy and oceanography. Considering­ the existence of many models، a quantitative evaluation of research، and ranking and selecting the best model of the global ocean tide Models is considered as an important objective The purpose of this study is validation of global ocean tide models including، FES2004، FES99، NAO. 99b، TPXO6. 2، TPXO7. 1، in the Persian Gulf and Oman sea and selecting the optimal model which can be used to determine the characteristics of the tide in these regions. Since most of the global tide models are designed for deep sea، so the models evaluated in this study have been chosen not only suitable to the latitude and the longitude of the Persian Gulf and Oman Sea but also to be used in the shallow sea as well Oman Sea. In order to evaluate the models، the tidal analysis results obtaind from the models are compared with the tidal analysis based on tide gauge observations in the Persian Gulf and Oman Sea (Jask، Chahbahar،Shahid Rajaee،. Bushehr،Emam Hassan،Kangan). For the tidal analysis based on global ocean tide models we must test the models. To test the models TPXO6. 2 and TPXO7. 1، we have to use special software called Tide Model Driver (TMD). The TMD package contains scripted function for use in batch-mode Matlab processing. The input data are the geographical latitudes and longitudes of the studied area as well as the selected tidal components. The output data will be the amplitudes and the phases of the tidal components. The models (FES2004، FES99، and NAO99b) open in Matlab and need a short program in Matlab for determining the geographical situation in the area of the Persian Gulf and Oman Sea. The input data are the geographical latitudes and longitudes of the studied area as well as the selected tidal components. The output data will be the amplitudes and the phases of the tidal components. In this research the tidal analysis based on tide gauges is conducted in two ways: tidal modeling ­and utilizing the results of IOS software. The tidal modeling was used with the Fourier sine and cosine series expansion and least squares. In both ways it was resulted that the major section of elevation data at the stations related to main tidal components (K1، O1، M2، S2) and the largest amplitude observed in stations is related to M2. In this study the results of five models of the global tide ocean compared with the results acquired by tide gauges using software IOS and at all stations using several different statistical method. The statistical are. - Amplitude root mean square - Rss of amplitude root mean square - Vector difference root mean squars - Rss Vector difference root mean squars Assesment of root mean square of amplitude of tidal components that are drived by the models in this research are compared with the tide gauges results (using both two manner، software and tidal modeling) showed that the root mean squares of all estimated amplitudes of models except FES99 is less than dm. The results of statisstical analysis showed that the best agreement with the tide gauge results with the tide results evaluated by models is corresponding to Jask and Chabahar which are closer the open sea; and results of the FES2004 model has the best agreement with the tide gauge results in the Persian Gulf and Oman Sea. Results of FES2004 model which are compared with results of tidal gauge showed that this model has the lowest Rss for RMS for amplitude (8. 5843cm). Results of FES2004 model which compared with results of IOS software showed that this model has the lowest Rss for RMS for amplitude (8. 795 cm)، also the FES2004 model has the lowest Rss for RMS differential vector (9. 378 cm).

    Keywords: Tide, Global ocean tide models, Tidal component, Mean sea level, Tide gauge
  • Bijan Shoorcheh, Mehdi Motagh, Mohammad Ali Sharifi Pages 215-225
    Many earthquakes occur in Iran every year and some of these earthquakes cause loss of life and property. Consequently earthquake is one of challenging topics not only in Iran but also in other active tectonic regions in the world. Investigating the mechanism of earthquake as a natural disaster is the first and important step. To study earthquakes، different information such as geometry and behavior of active faults، as well as the mechanical properties of the earth’s upper most layers، are required. Geometric and rheology properties of earth’s layers as well as details of the contemporary strain، temperature and stress have increased significantly over the past decade. Furthermore thanks to availability of Global Navigation Systems (GNSS)، like GPS، modern space geodesy data processing and new tools like PS-InSAR that provide unforeseen spatial coverage of precise observations of the Earth’s surface deformations. The only processing approach that composes all geometrical and physical complexities is Finite Element Modeling (FEM). The first step in using FEM is to examine its capabilities. In this paper deformation field of a dip slip (normal and reverse) and a strike slip fault (left lateral) in linear homogenous isotropic elastic medium by means of 2D and 3D Finite Element Method (FEM) has been investigated. By means of FEM، the complexity of mechanism of a fault related disaster for determination of precise Green operator and solution of a reverse problem for extraction of fault slip rate can be modeled. As a sample، we apply contact elements and develop a frictionless fault surface and then deformation field of dip and strike slip faults for one meter of slip for each side of fault surface. Fault top lines for dip and strike slip faults are assumed to be on the ground. The dimensions of semi infinite medium for dip and strike slip faults are respectively 1000*500 and 1000*3000*120 km and these dimensions relative to fault’s dimensions are large. FEM deformation field are compared to Okada analytical model (an analytical model). The comparison shows that there is a good agreement between FEM and the analytical model. Our procedure can be summarized as follows: 1- 2D geometrical modeling of 90، 70 and 25 degree dip slip faults and 3D vertical strike slip fault. 2- Meshing of medium and assign material properties (linear homogenous isotropic elastic). 3- Apply boundary conditions by horizontal and vertical displacement vectors. 4- Determination of horizontal and vertical displacement vectors on the ground by means of FEM. 5- Comparison of analytical (Okada model) and FEM results and computation of Root Mean Square (RMS) as an efficiency test of results.
    Keywords: Dip slip fault, Strike slip fault, Deformation field, Finite element method