فهرست مطالب

ژئوفیزیک ایران - سال نهم شماره 1 (پیاپی 24، 1394)
  • سال نهم شماره 1 (پیاپی 24، 1394)
  • تاریخ انتشار: 1394/01/28
  • تعداد عناوین: 10
|
  • بهنام مهدی اوغلی لاهرودی، وحید ابراهیم زاده اردستانی* صفحات 1-14
    با توجه به گسترش روش های گوناگون مدل سازی وارون، کاربران به دنبال روش هایی هستند که بتوانند اولا مدل های پیچیده زمین شناسی را مدل سازی کنند، ثانیا نحوه پردازش مدل سازی طوری باشد که کاربر در کمترین زمان بتواند مدل موردنظر را بیابد و نیازی به کار خسته کننده آزمون و خطا نباشد. سعی ما در این مقاله تحقق این دو مورد در برگردان داده های گرانی حاصل از منابع دوبعدی گرانشی با کمک گرفتن از اطلاعات کاربر است. درواقع روشی برای برآورد موقعیت و هندسه بی هنجاری هایی با چند چگالی که میدان گرانشی پیچیده ای را ایجاد می کنند، مورد بررسی قرار می گیرد. کاربر نقاط و پاره خط هایی از موقعیت تقریبی بی هنجاری تعریف می کند و چگالی تقریبی به آن نقاط و پاره خط ها نسبت می دهد و با این روش منابعی را که به این فرضیات نزدیک ترند، برآورد می کند (نگارندگان این الگوریتم را در محیط مت لب (MATLAB) نوشته اند).
    کلیدواژگان: مدل سازی وارون دوبعدی، نقاط و پاره خط ها، هندسه و تباین چگالی، گرانی سنجی
  • عباس عابدینی*، سعید فرزانه صفحه 15
    شبکه هایانحرافقائم درمحاسباتژئودزی فیزیکیو محاسبهژئوئیدبسیارپراهمیتهستند. یکی از روش های تعیین مولفه های انحراف قائم () مقایسه مختصات نجومی و ژئودتیک است. در قرن اخیر با پیشرفت های صورت گرفته قادر به تعیین مختصات ژئودتیک با استفاده از مشاهدات GPSبا دقت بسیار زیاد هستیم. همچنین با به کارگیری روش های الکترواپتیکی نجوم ژئودتیک، تغییرات اساسی در روش های کلاسیک نجوم ژئودتیک در تعیین مختصات نجومی به وقوع پیوسته است.
    هدف از این مقاله عرضه یک روش خودکار و دقیق برای تعیین مختصات نجومی و درنهایت مولفه های انحراف قائم است. امروزه با در اختیار قرار گرفتن دوربین های رقمی با دقت هندسی و تابش سنجی زیاد، فصل جدیدی در به کارگیری نجوم ژئودتیک در کاربردهای گوناگونی نظیر تعیین وضعیت ماهواره، مختصات نجومی و مولفه های انحراف قائم، با عنوان نجوم ژئودتیک بینایی مبنا گشوده شده است. چنانچه از ستارگان در راستای سمت الراس (زنیت) تصویربرداری شود، می توان مختصات نجومی محل را با دقتی بهتر از 01/0 ثانیه تعیین کرد. با تعیین مختصات نجومی و مشاهده مختصات ژئودتیک می توان مولفه های انحراف قائم را تعیین کرد. در این مقاله پس از تشریح اصول روش پیشنهادی، آن را روی تصویر اخذ شده از یک ایستگاه آزمایش می کنیم. نتایج حاصل دستیابی به مولفه های انحراف قائم با دقت بسیار زیاد را نشان می دهد.
    کلیدواژگان: دوربین سمت الراسی رقمی، طول و عرض نجومی، مولفه های انحراف قائم، تصویربرداری سمت الراسی، نظریه حرکت موقت، SIFT
  • رضا قائدرحمتی، علی مرادزاده*، نادر فتحیان پور، سونگ کن لی صفحات 30-45
    تولید یک مدل مناسب در حل منظم مسئله وارون به انتخاب مناسب پارامتر منظم سازی وابسته است، لذا برآورد این پارامتر می تواند اهمیت زیادی داشته باشد. در اکثر مسائل وارون، این پارامتر به صورت تجربی انتخاب می شود. هدف از تحقیق حاضر، عرضه و به کارگیری روشی برای انتخاب خودکار پارامتر منظم سازی مناسب برای وارون سازی دوبعدی داده های مگنتوتلوریک است. برای این منظور دو روش اعتبار سنجی تقاطعی تعمیم یافته (GCV: Generalized Cross Validation) بهبود داده شده و منحنی LL-Curve) در الگوریتم وارون سازی دوبعدی داده های مگنتوتلوریک به کار برده می شود. برآورد پارامتر منظم سازی با این روش ها در یک مثال مصنوعی تقریبا پیچیده و با اعمال دو درصد نوفه تصادفی و همچنین برای یک دسته داده واقعی تشریح می شود. نتایج حاصل نشان می دهد که هر دو روش فوق در انتخاب پارامتر منظم سازی در داده های مصنوعی توانمند هستند. همچنین نتایج به دست آمده برای داده های واقعی و مقایسه آنها با نتایج به دست آمده به روش ACBActive Constrain Balancing) نشان می دهد که روش GCVبهبودیافته به خوبی قادر است پارامتر منظم سازی را برای تولید یک مدل مناسب برآورد کند، در صورتی که روش منحنی Lبه همراه یک طرح کنترلی می تواند مفید واقع شود.
    کلیدواژگان: وارون سازی دوبعدی، مگنتوتلوریک، پارامتر منظم سازی، روش GCV، روش منحنی L
  • احمد مرادی شاه قریه، علی نجاتی کلاته*، امین روشندل کاهو صفحات 46-57
    تجزیه مد تجربی(EMD) یکی از ابزارهای جدید برای تجزیه و تحلیل سیگنال ها است. از این ابزار در روش های میدان پتانسیل در جداسازی بی هنجاری های ناحیه ای از محلی استفاده می شود. از روش های متداول برای جداسازی می توان به روش پنجره میانگین متحرک و تحلیل روند اشاره کرد که روش هایی نیمه خودکار هستند. به عبارت دیگر نظر مفسر به طور مستقیم در نتایج تاثیرگذار است. اساس روش EMD پالایش مکانی یا زمانی سیگنال برحسب مشخصات نقاط فرین (اکسترمم) است. مولفه های تجزیه به ترتیب شامل نوارهای بسامدی زیاد تا کم است. بدین منظور ازآنجاکه بی هنجاری های میدان مغناطیسی به دو صورت بسامد زیاد و کم هستند، روش جدید می تواند روشی کارآمد در جداسازی این دو طیف بسامدی باشد. در این مقاله از این نظریه برای جداسازی بی هنجاری های میدان مغناطیسی استفاده شده است. در این روش تابع هایمد ذاتی از داده ها استخراج شده و آخرین مد حاصل تحت عنوان باقی مانده، نشان دهنده بی هنجاری ناحیه ای است. این روش خودکارروی داده های مصنوعی اعمال شد و نتایج قابل قبولی به دست آمد. پس از آن روش EMDروی داده های برداشت شده مغناطیس هوایی واقعی ناحیه شمالمحلات از توابع استان مرکزی به منظور بررسی زمین شناسی زیرسطحی منطقه با هدف اکتشاف ذخایر زمین گرماییاعمال شد. نتایج جداسازی با استفاده از این روش نسبت به روش متداول برازش چندجمله ای، دقت بیشتری دارد و سازگاری آن با زمین شناسی منطقه مورد بررسی زیاد استنتایج حاصل از روش EMDبا نتایج حاصل از پالایه ادامه فراسو مقایسه و مشاهده شد که نتایج حاصل از روش EMDتا حدود زیادی با نتایج حاصل از پالایه ادامه فراسو مطابقت دارد. تعیین ارتفاع بهینه برای جداسازی در روش پالایه ادامه فراسو نیازمند محاسبات وقت گیر و پیچیده ای است درحالی که در روش EMDدیگر نیازی به تعیین این ارتفاع نیست.
    کلیدواژگان: جداسازی میدان مغناطیسی، بی هنجاری منطقه ای، بی هنجاری باقی مانده، تجزیه مد تجربی، شمال محلات
  • مرضیه ولی اقبال، وحید ابراهیم زاده اردستانی* صفحات 58-70
    الگوریتم جدیدی برای برآورد عمق و پارامتر های مدل فرضی (ضریب دامنه) یک جسم بی هنجار با استفاده از همه داده های اندازه گیری شده گرانیبیان شده است. ضریب دامنه شامل پارامترهای هندسی و فیزیکی بوده و به همراه عمق می تواند دید کاملی از وضعیت هندسی و فیزیکی بی هنجاری زیر زمینی در اختیار مفسر بگذارد.مسئله برآورد عمق از داده مشاهده شده به یک معادله غیرخطی F(z)=0تبدیل شده است (عیسی، 2011). این معادله را می توان برایعمقzبا کمینه کردن یک تابع هدف به روش کمترین مربعات با روش های تکرار استاندارد حل کرد. با استفاده از عمق برآورد شده، ضریب دامنه نیز قابل محاسبه است. روش بر پایه تعیین مجذور میانگین ریشه (کمترین مربعات) از عمق های برآورد شده با استفاده از همه مقادیر sبرای هر فاکتور شکل است. کمینه مقدار کمترین مربعات به منزله معیاری برای برآورد شکل صحیح و عمق ساختار مدفون به کاربرده می شود. وقتی فاکتور شکل صحیح به کار برده شود، کمترین مربعات عمق ها همیشه کمتر از کمترین مربعات محاسبه شده از فاکتورهای شکل نادرست است. تقریب پیشنهادی برای مجموعه ای از اجسام بی هنجاری با شکل هندسی ساده قابل استفاده است. روش کمترین مربعات به صورت کاملا محاسباتی و پیشرو برای داده های نیم رخی قابل اعمال می باشد. بنابر این بایستی قبل از به کار بردن روش، داده های گرانی در امتداد یک نیم رخ که از دامنه بیشینه اثر گرانی آن میگذرد در نظر گرفته شوند. این روش برای مدل های مصنوعی مانند استوانه قائم نامتناهی، استوانه افقی و کره برای به دست آوردن پارامتر های مجهول هندسی مانند شکل، عمق و فیزیکی مانند تباین چگالی به کار برده شده است. این شکل های هندسی می توانند درصد بالایی از بی هنجاری های زیر سطحی را همانند سازی کنند. همچنین برای داده های مصنوعی آغشته به نوفه نیز از روش مذکور استفاده شده است.این روش به طور موفقیت آمیزی برای داده واقعی مربوط به اکتشاف باریت در منطقه استان فارس نزدیک شهر آباده به کار رفته است. پارامتر های به دست آمده حاصل از روش معرفی شده در این مقاله در مقایسه با نتایج حاصل از روش اویلر برای عمق و همچنین نتایج حاصل از حفاری هماهنگی خوبی را نشان می دهد.
    کلیدواژگان: تفسیر گرانی، روش کمترین مربعات، اجسام هندسی ساده، برآورد عمق، پارامتر های مدل فرضی
  • مهشید کاویانی، سید مجید میررکنی* صفحات 71-84
    «انتخاب ورودی» صحیح، هوشمند و متناسب با هدف به کمک روش مناسب، اولین گام در طراحی شبکه عصبی مصنوعی (Artificial Neural Network) با نماد ANNبه منظور پیش بینی است. دو رهیافت به منظور انتخاب داده های ورودی مناسب وجود دارد؛ در رهیافت اول سری زمانی پراسنج (پارامتر) موردنظر، یعنی هدف ANN، در سال های گذشته و در رهیافت دوم پراسنج هایی که با هدف رابطه خطی یا غیرخطی دارند، مورد استفاده قرار می گیرند. در اثنای فرایند انتخاب ورودی برمبنای رهیافت دوم، به علت حجم زیاد داده ورودی، خطاهای اندازه گیری، حضور داده های غیرمعمول و همبستگی بین متغیرهای ورودی، خطا افزایش و دقت پیش بینی کاهش می یابد. در اکثر موارد به علت فقدان اطلاعات دقیق مربوط به جزئیات داده به ناچار از روش سعی و خطا برای انتخاب ترکیب مناسبی از داده های ورودی و حذف داده های غیرمعمول استفاده می شود. در پژوهش حاضر، به منظور اجتناب از کاربرد روش سعی و خطا از تحلیل مولفه اصلی برای تعیین اطلاعات دقیق مربوط به جزئیات داده استفاده شده است. تحلیل مولفه اصلی توانایی های متعددی از جمله؛ کاهش ابعاد داده، استخراج مدهای تغییرپذیری متغیرهای ورودی، از بین بردن همبستگی بین داده های خام و حذف داده های غیرمعمول دارد. در پژوهش حاضر، پراسنج های هواشناختی مرتبط با دما، به منظور تعیین داده های ورودی مناسب برای پیش بینی میانگین دمای روزانه سال 2009 در ایستگاه همدیدی شهرستان یزد در یک دوره آماری 29 ساله (1980 تا 2008) مورد بررسی قرار گرفته اند. سپس با کاربست تحلیل مولفه اصلی، ضمن حذف همبستگی بین متغیرهای ورودی، داده های غیرمعمول شناسایی و حذف می شوند. درنهایت با بررسی مدهای تغییرپذیری هریک از پراسنج ها و مقایسه آنها با هدف ANNداده های ورودی مناسب انتخاب می شود. نتایج نشان می دهد که با استفاده از توانایی های متعدد تحلیل مولفه اصلی می توان انتخاب ورودی صحیح، هوشمند و متناسب با هدف ANNرا بدون استفاده از روش سعی و خطا عملی ساخت.
    کلیدواژگان: انتخاب ورودی، شبکه عصبی مصنوعی، پیش بینی، کاهش ابعاد، پراسنج‎های هواشناختی، مدهای تغییرپذیری
  • علی حمیدی حبیب، محمدعلی ریاحی* صفحات 85-99
    معمولا دو مجموعه از اطلاعات برای مدل سازی ساختار زمین شناسی و ویژگی های مخزن موجود است. 1- داده های حاصل از چاه نگاری که دارای دقت عمقی مناسب و توزیع مکانی کمی در محدوده میدان هستند و 2- داده های لرزه ای که دارای توزیع مکانی مناسب و دقت عمقی کمی هستند. لذا استفاده هم زمان از این دو سری داده برای توصیف پارامترهای مخزن می تواند نتایج بهتری نسبت به استفاده جداگانه از این اطلاعات تولید کند. برای استفاده هم زماننیاز به همسان سازی آنها است که معمولا کار مشکلی است. ازآنجاکه نرم افزار های گوناگون توانایی های متفاوتی دارند و هرکدام برای وظیفه مشخصی توسعه یافته اند، بنابراین نشانگر هایی را هم که در بر می گیرند، متفاوت است. بررسی های این تحقیق نشان داد که نشانگر هایی از قبیل مولفه های تک بسامد، پهنای نوار لحظه ای و افزایش زمان (time gain) میزان همبستگی بزرگی را با پارامتر تخلخل به دست می دهد. نشانگر های یاد شده از نرم افزار پترل استخراج شده اند. بنابراین هدف اصلی این تحقیق را می توان ترکیب نشانگرهای لرزه ای، مولفه های تک بسامد، پهنای نوار لحظه ایو افزایش زمان با داده های چاه نگاری برای برآورد توزیع پارامترهای مخزنی بیان کرد. این تحقیق برای برآورد توزیع تخلخل موثر لایه مخزنی سروک در یکی از میادین هیدروکربوری واقع در خلیج فارس صورت گرفت. در ابتدا از نشانگر های موجود در نرم افزار همپسون-راسل به کمک داده های چاه نگاری برای برآورد تخلخل استفاده شد، توزیع تخلخل برآورد شده دقت قابل قبولی داشت. در این حالت میزان متوسط همبستگی بین لاگ های تخلخل واقع در چاه ها و لاگ های برآورد شده برابر 68 درصد برای روش شبکه عصبی احتمال پذیر به دست آمد. در ادامه برای بهبود برآورد ویژگی پتروفیزیکی مخزن، نشانگرهای دیگری از نرم افزار پترل (Petrel) که در ارتباط با ویژگی های پتروفیزیکی مخزن بودند، استخراج شدند و به همراه نشانگرهای موجود در نرم افزار همپسون-راسل برای برآورد توزیع تخلخل مورد استفاده قرار گرفتند. این حالت باعث بهبود چشمگیری دربرآورد توزیع تخلخل شد؛ به طوری که در این حالت میزان متوسط همبستگی بین لاگ های تخلخل واقع در چاه ها و لاگ های برآورد شده برابر 79 درصد برای روش شبکه عصبی احتمال پذیر به دست آمد.
    کلیدواژگان: تخلخل موثر، پارامتر پتروفیزیکی، نشانگرهای لرزه ای، شبکه عصبی، چاه نگاری
  • سید هادی دهقان منشادی، نوربخش میرزائی*، مرتضی اسکندری قادی صفحات 100-119
    در این تحقیق به منظور برآورد شتاب طیفی به صورت مستقیم با استفاده از روابط تضعیف در منطقه اصفهان (E54-5/49 و N1/34-31)، ابتدا،پارامتر های لرزه خیزی در گستره مورد بررسی به تفکیک ایالت های لرزه زمین ساختی منطقه محاسبه، و سپس، با استفاده از نقشه گسل ها و اطلاعات زمین لرزه های گذشته، نقشه ای از چشمه های بالقوه زمین لرزه برای منطقه اصفهان تهیه شده است. با استفاده از روابط تضعیف طیفی کمبل و بزرگنیا (2003) و آمبرسیز و همکاران (2005)، بیشینه شتاب جنبش زمین و شتاب طیفی در دوره تناوب های متفاوت تعیین و از آن نقشه های پهنه بندی زمین لرزه به روش احتمالاتی اصلاح شدهبرای دوره تناوب های صفر، 2/0، 4/0، 6/0 و 1 ثانیه تهیه شده است. با اعمال ضریب بازتاب آیین نامه 2800 بر نقشه پهنه بندی بیشینه شتاب جنبش زمین، نقشه های پهنه بندی برای دوره تناوب های دیگر بر پایه شتاب طیفی تهیه و نتایج آن با نتایج روش مستقیم برآورد شتاب طیفی مقایسه شده است. بیشینه شتاب افقی در شهر اصفهان برای 10% احتمال افزایش در 50 سال با استفاده از رابطه تضعیف کمبل و بزرگنیا (2003)،g1/0 و با استفاده از رابطه آمبرسیز و همکاران (2005)، g19/0 به دست می آید. در منحنی شتاب طیفی شهر اصفهان، بیشترین شتاب افقی با استفاده از رابطه کمبل و بزرگنیا (2003) در دوره تناوب 1/0 ثانیه برابر g35/0 و با استفاده از رابطه آمبرسیز و همکاران (2005) در دوره تناوب 11/0 ثانیه برابر g61/0 حاصل می شود. همچنین، مقایسه شتاب طیفی حاصل از روابط تضعیف و شتاب طیفی به دست آمده از آیین نامه های 2800 ایران و IBCامریکا در دوره تناوب های متفاوت، به طور مشخص برای شهر اصفهان نشان می دهد که تا دوره تناوب 1/0 ثانیه مقادیر شتاب طیفی آیین نامه 2800 ایران و مقادیر به دست آمده از رابطه آمبرسیز و همکاران (2005) نزدیکی قابل قبولی با یکدیگر دارند. شتاب طیفی حاصل از رابطه کمبل و بزرگنیا (2003) کمتر از شتاب طیفی به دست آمده از آیین نامه 2800 ایران و رابطه آمبرسیز و همکاران (2005) است. رابطه آمبرسیز و همکاران (2005)، به علت دخیل بودن داده های ایران در آن، نسبت به رابطه کمبل و بزرگنیا (2003) برای گستره مورد بررسی قابل اطمینان تر است. شتاب طیفی به دست آمده از آیین نامه 2800 ایران برای دوره تناوب های بزرگ تر از 1/0 ثانیه مقادیر بیشتری را نسبت به شتاب های طیفی برآورد شده از روش های دیگر (کمبل و بزرگنیا، 2003؛ آمبرسیز و همکاران، 2005 و IBCامریکا) نشان می دهد. با توجه به مقایسه صورت گرفته در این پژوهش، علت این اختلاف را می توان نبود دقت کافی در نتایج حاصل از آیین نامه 2800 ایران دانست، که این را می توان به نبود دقت کافی در ضرایب طیف پاسخ آیین نامه 2800 ایران، برای گستره مورد بررسی، نسبت داد.
    کلیدواژگان: شتاب طیفی، بیشینه شتاب جنبش زمین، برآورد احتمالاتی خطر زمین لرزهمنطقه اصفهان
  • محمدعلی احمدی، وحید ابراهیمزاده اردستانی*، لقمان نمکی صفحات 120-133
    تبدیل موجک روشی است برای برآورد پارامترهای هندسی مقاطع دوبعدی چشمه های گرانی که در آن، تبدیل موجک پیوسته موقعیت تکینگی های میدان پتانسیل را با یک الگوی هندسی مخروطی شکل که راس آن به سمت محل گوشه های مقطع چشمه متمایل است، نشان می دهد. در یک چارچوب فضا-مقیاس، تبدیل موجک پیوستهدر دامنه مقیاس های خاصی که به طول موج بی هنجاری چشمه هدف بستگی دارد، خطوطی که برازش نقاط بیشینه ضرایب موجک هستند، همدیگر را در محل چشمه نقطه ای یا امتداد لبه های چشمه بی هنجاری قطع می کنند (روش تحلیل چند مقیاسی لبه). اما درصورتی که بی هنجاری های مشاهده شده برهم نهی اثرات چشمه های گوناگون باشند، روش ذکر شده، اعماق واقعی لبه های چشمه های عمیق را آشکارسازی نخواهد کرد. ازاین رو با استفاده از خاصیت جداسازی تبدیل موجک گسسته، سیگنال بی هنجاری کل در چندین تراز که براساس نوارهای بسامدی از بالا به پایین تقسیم بندی می شود، تفکیک پذیر است. این روش روی داده های مصنوعی حاصل از یک مدل ترکیبی که در آن چشمه کم عمق ساختاری با سطح مقطع مثلثی بر بالای نقطه تقاطع دو ذوذنقه با امتداد نامحدود که سطح مقطع ساختار چشمه عمیق قرار گرفته اعمال شده است. بنابراین، اثرات سطحی بیشتر در ترازهای پایین و اثرات عمیق در ترازهای بالا است. پس به منظور تضعیف اثرات سطحی، بخش زیادی از ضرایب بازسازی موجک سیگنال، در ترازهای پایین میرا شده است و درنهایت، کل ضرایب موجک بازسازی شده و سیگنال بی هنجاری پالایش شده، که بیشتر ناشی از اثرات عمیق اند به دست آمده است. آن گاه با روش تبدیل موجک پیوسته سیگنال حاصل تحلیل شده و گوشه های مقطع چشمه عمیق برآورد شده است. پس، با استفاده از ترکیب خاصیت تبدیل موجک گسسته به مثابه یک ابزار توانمند در جداسازی، و تبدیل موجک پیوسته، اثرات چشمه های عمیق از سطحی بازسازی شده است. همچنین این روش روی داده های همراه با نوفه 4% اعمال شده است.
    داده های واقعی مورد استفاده، مربوط به منطقه ساردینیای ایتالیا است. از لحاظ زمین شناسی این منطقه شامل بستر پالوزوئیک عمدتا با سنگ های دگرگون گرانیتی است که زون شرقی آن با ریفت اولیگو - میوسن یا ریفت ساردینیا با روند شمالی- جنوبی قطع شده است و شامل گرابن کامپی دانو است. گرابن بین خلیج اوریستانو و خلیج کاگلیاری قرار گرفته و در بخش جنوبی خشکی ساردینیا گسترش پیدا کرده است. بخش بالایی فرو رفتگی آن با توالی پلیوسن -کواترنری که عمدتا از رسوبات قاره ای و گدازه های بازالتی تشکیل یافته پر شده است. در این تحقیق، با اعمال این روش روی یک نیم رخ از داده ها شامل 334 ایستگاه و فاصله برداشت 6/0 کیلومتر که در آن به منظور حذف اثر لبه های انتهایی نیم رخ تا 512 ایستگاه گسترش داده شده است، مرزهای گرابن و موقعیت طولی آن برآورد شده که در توافق خوبی با تفسیرهای زمین شناسی و ژئوفیزیکی دیگر است.
    کلیدواژگان: تبدیل موجک پیوسته، تبدیل موجک گسسته، جداسازی، بی هنجاری گرانی، تحلیل تفکیک چندگانه، تحلیل چندمقیاسی لبه
  • مژده حافظی، مژگان رضایی منش، علیرضا محب الحجه*، عباسعلی علی اکبری بیدختی، محمدعلی نصراصفهانی صفحه 134
    با توجه به اهمیت آلودگی هوای شهر تهران از نظر آسیب رسانی آن به ساکنان این شهر، لازم است که عوامل هواشناختی متعدد موثر بر آن مورد بررسی قرار گیرد. این پژوهش اختصاص به بررسی ارتباط احتمالی شارش بزرگ مقیاس در وردسپهر زبرین با ایجاد شرایط حاد آلودگی هوا در تهران دارد. برای این منظور، در مورد وضعیت بحرانی آذرماه 1389، با بررسی شارش در ترازهای زبرین جو، محل استقرار جریان جتی و نیز تحلیل نقشه های دمای پتانسیلی روی سطح هم تاوایی پتانسیلی PVU2 (یک واحد PVبرابر با)، شاخص شارش دوشاخه موسوم به SFI، اختصار برای Split Flow Index، برای شناسایی دوشاخه شدگی جت و شاخص شکست موج برای شناسایی رویداد بندال، موسوم به شاخص، محاسبه می شود. برای این منظور از داده های سامانه پیش بینی جهانی (GFS)، شامل ارتفاع ژئوپتانسیلی، دما و سرعت باد برای 1 نوامبر 2010 تا 31 ژانویه 2011 استفاده شده است. بررسی نقشه های ارتفاع ژئوپتانسیلی، سرعت باد، تاوایی نسبی و تابع جریان در تراز hPa300 امکان تشخیص دوره دوشاخه شدگی جریان جتی سطوح زبرین جو را فراهم می کند. شاخص دوشاخه شدگی شارش با استفاده از میانگین تاوایی برای هریک از جت های جنب حاره و جبهه قطبی و همچنین ناحیه کمینه سرعت بین این دو (GAP) در تراز hPa300 محاسبه می شود. علامت و بزرگی این شاخص معیاری از قدرت و شدت هریک از نواحی نام برده در دوشاخه شدگی شارش است.مثبت بودن شاخص SFIدر نیمه اول آذر 1389 نشان از نبود دوشاخه شدگی جت دارد. بازه 18-23 آذرماه درحکم بازه حضور بندال گذرای امگا بر فراز آسیای میانه شناسایی شده است و با حضور مقادیر منفی (مثبت) SFIدر ابتدای (انتهای) بازه، نشان از پیشرفت تدریجی بندال در این بازه دارد. از سوی دیگر می توان بندال را به واژگونی گرادیان نصف النهاری روی PVU2 ارتباط داد. بر پایه این امر به موازات تحلیل شاخص SFI، به محاسبه شاخص برای آشکارسازی و تعیین بندال برمبنای توزیع -PV پرداخته شده است. مثبت بودن شاخص در یک طول جغرافیایی به معنای رخداد واژگونی گرادیان نصف النهاری دمای پتانسیلی در آن طول جغرافیایی است. با تحلیل نقشه های دمای پتانسیلی روی سطح PVU2 و محاسبه شاخص مشاهده شد که با توجه به مثبت شدن شاخص در میانه آذرماه، یک بندال آنی محلی روی داده است. اما با توجه به تعریف کلاسیک بندال و به علت کوتاهی دوره بندال شناسایی شده، نمی توان آن را به طور قطع به منزله یک بندال پذیرفت. بازه 20-25 آذرماه با مثبت شدن شاخص و وجود بندالی گذرا با آنچه شاخص SFIمبنی بر دوشاخه شدگی شارش در بازه 18-23 آذرماه بر فراز آسیای میانه نشان می دهد، سازگاری دارد.
    کلیدواژگان: جریان جتی، بندال، دوشاخه شدگی جت، شکست موج راسبی، سطح PVU2، واژگونی گرادیان نصف النهاری دمای پتانسیلی
|
  • Behnam Mahdioghli Lahroodi, Vahid Ebrahmzadeh Ardestani* Pages 1-14
    Considering the development of different methods of modeling، the geophysicists are looking for methods that firstly can model the complex geological structures and secondly they are not time consuming. In this study، we aimed to model the gravity anomalies by defining the prior information. We studied a different method for interpreting 2D gravity anomalies produced by multiple and complex gravity sources separated from each other by short distances. This is an approach combining the best features of the automatic inversion and forward modeling. The assumed interpretation model is a grid of 2D prisms placed side by side; the density contrasts of this grid are the parameters to be determined. The interpreter designates the outlines of the gravity sources in terms of geometric elements (line segments and points) and the density contrast associated with the geometric elements defining each gravity source structure (this amounts to specifying the supposed density contrast for each source). The method then estimates the densitycontrast distribution that fits the observed anomaly within the measurement errors and represents compact gravity sources closest to the specified geometric elements. The user can either accept the interpretation or adjust the gravity-source structure، changing the position of the geometric elements and/or the density contrast associated with each of the elements and begin the inversion once again. In fact، we estimate the geometrical shape of the underground anomalies. The interpreter defines some initial points and line segments with predefined density contrasts and then the modeling process estimates the final shape and density contrasts in the surrounding of the points and line segments. A computer code in MATLAB was written for these targets by the authors. The advantage of this method was to hold the data fit by the user. This capability helps the user consider the noise existing in the data to achieve a more acceptable model. Thiswas shown for synthetic models. Also، the method was tested on simple and complex synthetic models in two states، i. e. without noise and with random noise. Another advantage of this method was the ability of the inversion of complex geometric models and the lack of sensitivity of the method to points and line segments placed as the prior information given. Method’s practical application was shown by applying it to two sets of gravity data from different geologic settings. (1) Modeling a karstic cavity in the Havasan region in Ilam Province، Iran; (2) Modeling a Barite ore body in the Abadeh region in Fars Province، Iran. A Scintrex CG3 gravimeter with a sensitivity of 5 microGal was used for micro-gravity observations in the selected areas. Station altitudes were measured with a total station model Leica Tc 407 with an accuracy of 1-5mm in horizontal and vertical coordinates. The residual gravity grids were obtained using the Geosoft software. For both regions، the forward modeling method was done. Then the inversion method (the method used in this study) was applied to the gravity data and compared with the forward modeling method. Indeed، this inversion method offered a better data fit and more acceptable model. When the user has information about approximate anomaly locations and density contrast، this method is one of the best choices for the 2D gravity modeling.
    Keywords: 2D inversion, primary points, strikes, shape, density contrasts, gravity
  • Abbas Abedini*, Saeed Farzaneh Page 15
    Celestial positioning has been used for navigation purposes for many years. Stars as theextra-terrestrial benchmarks provide a unique opportunity in absolute point positioning. However، astronomical field data acquisition and data processing of the collected data isvery time consuming. The advent of the Global Positioning System (GPS) has nearlymade the celestial positioning system obsolete. The new satellite-based positioningsystem has been very popular since it is quite efficient and convenient for many daily lifeapplications. Several years ago، the determination of vertical deflections (the anglebetween the true zenith (plumb line) and the line perpendicular to the surface of thereference ellipsoid) often required 2-3 h or even more، using conventional astrogeodetic instrumentation such as analogue zenith cameras or astrolabes. The invention of the electro-optical devices at the beginning of the 21st century was really a rebirth in geodetic astronomy. Today، digital cameras with relatively high geometric and radiometric accuracy have opened a new insight into satellite attitude determination and the study of the Earth''s surface geometry and physics of its interior، i. e. computation of astronomical coordinates and the vertical deflection components. The Digital Zenith Camera System consists of a zenith camera equipped with a CCD imaging sensor، which is used for the determination of astronomical latitude، ، (the angle between the plane of the earth''s equator and the plumb line (direction of gravity) at a given point on the earth''s surface) and longitude، ، (the angular distance of a point on the celestial sphere from the great circle perpendicular to the ecliptic at the point of the vernal equinox، measured through 360° eastward parallel to the ecliptic). By means of the positions of stars on the celestial sphere which are defined by equatorial coordinates (، ). The equatorial coordinates can be linked to the astronomical parameters by GAST (Greenwich Apparent Siderial Time):
    Keywords: Digital Zenith cameras, astronomical latitude, longitude, vertical deflection, coherent motion theory, SIFT
  • Reza Ghaedrahmati, Ali Moradzadeh*, Nader Fathianpour, Seong Kon Lee Pages 30-45
    The inverse problem is usually ill-posed which means that there is more than one model which fits the noisy data. Such problems are solved through regularization and a major computational cost arises because the regularization parameter is not known a priori. Undoubtedly، the most common and well-known form of regularization is the one known as Tikhonov regularization (Tikhonov and Arsenin، 1977). In Tikhonov regularization، the regularization parameter (ƛ) is a parameter that acts to trade off between minimizing the norm of data misfit and the norm of the model. A good regularization parameter should yield a fair balance between the misfit and the model norm in the regularized solution. One of the main problems in the solution of inverse problem in terms of Tikhonov regularization is that the regularization parameter is unknown. The inversion algorithms for selection of regularization parameter can be roughly divided into two groups. In onegroup، the regularization parameter is estimated by a fixed value and the problem is solved by the fixed regularization parameter during the inversion process. In another group، the regularization parameter is estimated at each iteration of inversion. The first method which uses a fixed regularization parameter، i. e. the minimization of Tikhonov regularization (or functional of inverse problem) is done a few times. Each minimization is solved with an experimental regularization parameter and a solution is obtained. If the solution is judged to be satisfactory by some criteria، then the inverse problem is considered to have been solved. In the second inversion group، it is however preferredthat the regularization parameter is estimated at each iteration of the inversion. Most of the methods in the second group use the discrepancy principle criterion to choose the regularization parameter. The discrepancy principle method is based on the noise level of the data. Unfortunately for most of the field data the noise is not known. In this study، it was attempted to use the modified generalized cross validation (GCV) and L-curve criteria as two automatic selection approaches for regularization parameter in two-dimensional (2-D) magnetotelluric (MT) data inversion. GCV is based on the philosophy that if an arbitrary element of the observations is left out، then the corresponding regularized solution should predict this observation well، and the choice of regularization parameter should be independent of an orthogonal transformation of the observation vector. This leads to choosing the regularization parameter which minimizes the well-known GCV function. If solutions of the inverse problem are computed for all values of the regularization parameter، the graph، using log–log axes، of the misfit versus the model norm tends to have a characteristic ‘L’ shape called L-curve. The optimal regularization parameter corresponds to a point on the curve near the “corner” of the L-shaped region. There are several algorithms to find the corner of the L-curve; here the robust adaptive pruning algorithm was used for this purpose. The above methods were included in a 2-D magnetotelluric data inversion codes provided by the fourth author (Lee، et al.، 2009). The performance of each of the two regularization parameter selection methods is then investigated by the 2-D inversion of synthetic and real MT data sets. The resulting 2-D inverse models produced by the inversion of the synthetic data set using the modified GCV and the L-curve approaches were generally in good agreement with the model from which the data were generated. However، the constructed model from this synthetic data using the modified GCV was slightly better than the model obtained from L-curve method compared to the original synthetic model. This reflected that the values of regularization parameter obtained from the modified GCV routine were more suitable than those obtained from the L-curve method. This is clear in a distinct minimum of the GCV function and slightly indistinct minimum value in the L-curve of each iteration in the 2-D inversion. The obtained 2-D geoelectrical models from real MT data set using the modified GCV and L-curve methods have been compared with the model obtained by the inversion of the same MT data set using the active constrain balancing (ACB) method. In a 2-D inversion using the ACB method، the various set of values، minimum and maximum، of regularization parameter were tested for several performances of inversion of the real data to obtain the suitable model with respect to misfit and model norm. The inverse model obtained using the GCV method for the real MT data was well comparable with that obtained using the ACB method. The closeness of the corresponding values of regularization parameter for the modified GCV and ACB methods in this example could also indicate the robustness of modified GCV approach for the inversion of MT data. Although the results for the L-curve were not as well as those obtained using the modified GCV، the obtained results indicated that application of this method combined with an imposed cooling-schedule-type behavior could be efficient for inversion of MT data. The computation time was not an issue in this study، but it is important and should be considered. For example، on an Intel Core i5 CPU (2. 53 GHz)، 4 GB RAM computer، the inversions using the modified GCV and the L-curve methods for the real data took 267. 4 and 210 sec.، respectively، while this computation time for one performance of the inversion using ACB method was 209. 8 sec.
    Keywords: 2, D inversion, MT, regularization parameter, GCV method, L, curve method
  • Ahmad Moradi Shah Ghariyeh, Ali Nejati Kalateh*, Amin Roshandel Kahoo Pages 46-57
    The geophysicsl potential field separation refers to separation of the regional and local anomalies from the superimposed anomaly. The Empirical Mode Decomposition (EMD) proposed by Norden E Huang is a kind of spatial and temporal filtering process in terms of the signal extremum characteristic scales. It is a new data analysis method suitable for processing non-stationary and non-linear data. Its power to filter and decompose the data has earned it a high reputation in signal processing. Empirical mode decomposition is a time-frequency analysis method which can adaptively decompose complex signals. The decomposed component contains diffrent bands of frequencies from high to low، and the residual value is the signal trend component representing the signal averaged trend، which is similar to the regional anomalies in the geophysical field. The empirical mode decomposition (EMD) method is an algorithm for the analysis of multicomponent signals that breaks them down into a number of amplitude and frequency modulated zero-mean signals، termed intrinsic mode functions (IMFs). An IMF must fulfill two requirements: (1) the number of extrema and the number of the zero crossings are either equal or differ at most by one; (2) at any point، the mean value of the envelope defined by the local maxima and the envelope defined by the local minima is zero. Based on this theory، applying the EMD to separate the geophysical potential field is proposed in this article. When EMD is used for anomaly separation، the problem is to identify properly which IMFs contain residual characteristics. Certain modes will consist of mainly residual، whereas other modes will contain regional and noise characteristics. Magnetic field anomalies are usually superposed large-scale structures and small-scale structure anomalies. Separation of these two categories of anomalies is the most important step in the data interpretation. Different methods have been introduced forthis work، but most of them are the semi-automatic methods; it means that the interpretator’s opinion can directly affect the results. In this study، EMD method has been used to separate regional and residual magnetic anomalies. EMD decomposition results in what is “residual”، which is similar to the regional anomaly of a potential field data. This residual does not require any preset parameters unlike contemporary field separation methods. This automatic method is based on the extraction of the intrinsic oscillatory modes of data. Efficiency of this method has been investigated on both synthetic and real data acquired in North Mahalat area of Markazi Province to study the regional subsurface geology with the purpose of geothermal reserver explorations. Compared to the conventional method of trend analysis، the EMD method is affected by less artificial influence، and we did not need to set any parameters beforehand. Otherwise، it reflected the potential field intrinsic physical characteristics better. Separation results showed that this technique had higher accuracy than conventional methods such as polynomial fitting and had a good consistency with regions geology. Finally، the results of the new method were compared with results of the upward continuation filter and we observed that these results were matched with the upward continuation filter.
    Keywords: Magnetic field separation, regional anomaly, residual anomaly, empirical mode decomposition, North Mahallat
  • Marzie Valieghbal, Vahid Ebrahimzadeh Ardestani* Pages 58-70
    An inversion algorithm was developed to estimate the depth and the associated model parameters of the anomalous bodies from the gravity measured data (Essa، 2011). These parameters including geometrical and physical ones are defind as the amplitude coefficient and will be estimated through the method which is defined in this paper. One of the most important parameters is the depth of the causative bodies. The problem of depth (z) estimation from the observed data was transformed into a nonlinear equation of the form F (z) = 0. This equation was then solved for z by minimizing an objective functional in the least-squares sense through standard iterative methods. These standard iterative methods can solve the problem very readily and in the shortest time. However other numerical methods can also be used for solving the equation and the more accurate metod gives more precise results. Therefore solving the nonlinear equation is a vital step in obtaining the more precise results. Using the estimated depth، the amplitude coefficient was computed from the measured gravity data. The method was based on determining the root mean square (RMS) of the depths estimated by using all s-values for each shape factor. The primary shape factors for these simple geometrical shapes are defines as the a priori information and are assumed known before the process. The minimum RMS was used as a criterion for estimating the correct shape and depth of the buried structure. When the correct shape factor was used، the RMS of the depths is less than the RMS computed using wrong shape factors. These correct shape factors are actually estimated through the method and are different from the prior ones and reflect the closest shape to the real shape of the subsurface anomaly. In other words، the RMS of the correct shape factor is the least one. The proposed approach was applicable to a class of geometrically simple anomalous bodies، such as the semi-infinite vertical cylinder، the horizontal cylinder and the sphere which can simulate the shape of the most causative bodies. The method is tested for synthetic models with and without random noise. The method gives precise results for synthetic models contaminated by 5 to 10 per cent random noise which is quite acceptable and promising. This technique was also successfully applied to real data for mineral exploration. The applied real data belongs to an area with hilly topography located in the Fars Province close to the Abadeh city where the barite deposite is under exploration. The method is used for a profile of real data that is provided from the residual anomalies and passed from the main detected positive anomaly in the area. It was found that the estimated depths and the associated model parametrers were in good agreement with the results obtained through Euler method and drilling. The simple equations of the method and the precise results show its usefulness for obtaining the unknown parameters of causative bodies in gravity data interpretation. Therefore، the method is quite promising in obtaining the unknowmn parameters for different causative bodies and specially in cases that the shape of the anomaly is close to sphere and cylinder. This is usually the case in ore bodies detection and delineation.
    Keywords: Gravity interpretation, least, squres method, RMS, simple geometric bodies, depth, associated model parameters estimation
  • Mahshid Kaviani, Seyed Majid Mirrokni* Pages 71-84
    Properly intelligent «input selection» tailored to the target using an appropriate method is the first step in the design of Artificial Neural Network (ANN) for prediction. ANN architecture is not predetermined; the weights are determined based on input data during the training process. Therefore، when input data is richer، ANN will be better trained and will have a better performance in predicting meteorological parameters. To solve nonlinear equations governing atmospheric motions، for which no general solutions are known، meteorologists have to use the appropriate approximations for prediction. Using the ability of the ANN to consider nonlinear effects، meteorologists will be able to predict most of meteorological parameters without considering the nonlinear equationsgoverning atmospheric motions. There are two approaches for selecting the appropriate input data. In the first approach، time series of the desired parameter، ANN target، such as temperature، relative humidity، pressure، and wind speed from the previous years are used، while in the second approach، the parameters that have a nonlinear or linear relationship with the ANN target are used. Due to a large volume of input data، errors of measurement، the presence of unusual data and correlation between input variables، in the case of second approach، error increases and prediction accuracy decreases. In most cases، due to the lack of detailed information concerning the data، the trial and error method has to be used to select a proper combination of input data and elimination of unusual data. The trial and error method is one of the easiest methods for solving problems. Since in this method the governing relationships among the parameters are not considered، the solutions may not fit in the physical situation. In the present research، to avoid using the trial and error method، we use Principal Component Analysis (PCA) in order to determine the detailed information concerning the details of the input data. PCA has several abilities such as reduction of dimensions of data، extraction of variability modes of data، eliminating the correlation between raw data، and deletion of unusual data. These abilities can be used in various applications. For example، it is possible to reduce dimension data using PCA when we deal with a large volume of raw data. In fact، we achieve simultaneously three targets by using PCA. The first target is reduction of dimensions of the data; therefore، the training process of ANN performs better than the case when we use raw data. The second and the third targets are the extraction of variability modes and deletion of unusual data; thus ANN does not deviate and overtraining does not occur. In our accompanying research presented at the First Computational Physics Conference in 20−22 January 2014، we demonstrated that these abilities of PCA were very importantin properly intelligent input selection tailored to the target. Meteorological parameters associated with temperature to determine appropriate parameters for predicting the average daily temperature in 2009 in Yazd synoptic station in a 29-year period (1980 to 2008) has been analyzed by using PCA. The results showed that using numerous capabilities of PCA، a correct، intelligent input selection appropriate for the ANN target without using the trial and error methods is possible.
    Keywords: Input selection, artificial neural network, forecasting, reduction of dimensions, meteorological parameters
  • Ali Hamidi Habib, Mohammad Ali Riahi* Pages 85-99
    During the last decade، there has been an increasing interest in the use of attributes derived from 3-D seismic data to define reservoir physical properties such as porosity and fluid content. Therefore، significant advances in the study and application of expert systems in the petroleum industry is needed so that we are able to use such attributes in reservoir characterizations. Establishment of an intelligent formulation between two sets of data (inputs/outputs) has been the main topic of such studies. One such topic، of great interest، was to characterize how 3D seismic data can be related to lithology، rock types، fluid content، porosity، shear wave velocity and other reservoir properties. Petrophysical parameters، such as water saturation and porosity، are very important data for reservoir characterization. So far، several researchers have worked on predicting them from seismic data using statistical methods and intelligent systems (Russell et al.، 2002; Russell et al.، 2003; Chopra and Marfurt، 2006). Two sources of information are commonly available for structural modeling and reservoir characterization. These data are well log data (depth data) from wells and geophysical measurements from seismic surveys، which are often difficult to integrate. While the well data provide the most accurate measurements of depths، there are rarely enough wells to permit an accurate appraisal from well data alone. On the other hand، the seismic data is generally less precise but more abundant. The Main purpose of this study was to enhance the characterization of subsurface reservoirs by improving the prediction of porosity through a combination of reservoir geophysics (seismic attributes) and well logs data. First، for statistical determination of reservoir parameters seismic attributes were combined by using the classical techniques of multivariate statistics and more recent methods of neural network analysis were developed. However، there were important questions to answer: Which attributes had to be combined to estimate the porosity? How the best attributes were selected to achieve the goal? Were all the attributes used in different combination methods? Was there any software that contains all attributes relevant to the petrophysical parameters? To answer these questions، it should be noted that، generally speaking، conventional attributes which exist in any software were used for these ideas but each software was developed for specific tasks with specific attributes. Therefore، integration of different attributes from different softwares will improve process of estimation of petrophysical parameters. We used two very developed and famous softwares and their attributes for estimation of porosity. During the usage of these software programs، we found that، iso-frequency component، instantaneous bandwidth and time gain had more relation with porosity. The mentioned attributes do not exist in Hampson Russel software as main software for reservoir characterization. Then these attributes beside many other attributes extracted from the Petrel software were used in a different process of combination of attributes to estimate the porosity at well locations. For this study، well logging and seismic data were used in order to estimate the porosity in an Iranian oil field. At the first step، an inversion was carried out on seismic data and well logs. Subsequently، seismic attributes were extracted from the mentioned data by mathematical algorithms. Next، the extracted seismic attributes were combined using a step by step regression algorithm. In next stage، we determined a relationship between a set of seismic attributes and a reservoir parameter such as porosity in well locations by using a neural network، and then this relationship was used to calculate reservoir parameters from sets of appropriate seismic attributes throughout a seismic volume. In this study، firstly existence attributes in Hampson-Russell software with well data were used for porosity estimation. At this stage، the porosity was estimated with good accuracy. Further، to improve the estimation of petrophysical parameters، other seismic attributes from the Petrel software related to the petrophysical parameter were extracted. Then، these attributes with associated attributes available in Hampson-Russell software were used in the estimation of porosity. At this stage، the results were better than before. During this study، the best attributes that were related to reservoir characteristics from different software were used and the best combination of attributes for porosity estimation was investigated with using multilinear regression and different neural network methods.
    Keywords: Effective porosity, petrophysical parameters, seismic attribute, neural network, well logging
  • Seyed Hadi Dehghan, Manshadi, Noorbakhsh Mirzaei*, Morteza Eskandari, Ghadi Pages 100-119
    The spectral acceleration، SA، is used as the most commonly tool for the building response analysis. In many international or national engineering standards/codes such asInternational Building Code (IBC) and Iranian Building Code (standard 2800)، the buildings are desiged on the basis of spectral acceleration method. This method is based on orthogonal functions and has received much attention because of its simplicity. The target of this study was to estimate the spectral accelerations of ground motions due to earthquakes and compare them with the results of the standard No. 2800 and IBC in Isfahan and the adjoining regions (the area between 49. 5-54° E and 31-34. 1° N). The spectral accelerations، which are the input data for building design، are determined via spectral attenuation relationships by multiplying the response factor given in Iranian Building Code (standard 2800) to the Peak Ground Acceleration (PGA) determined from attenuation relationships. To this end، first، the seismicity parameters in the interest region for each seismotectonic province were calculated using a unified، homogenized and a complete catalog in the method proposed by Kijko and Sellevoll (1992)، in which one can consider magnitude uncertainty and completeness of data in calculations. Geological maps with scales of 1:100000 and 1:250000 were used to provide the fault map of this region. We determined several probable faults in the interest region to help us to introduce the potential seismic sources more precisely. Based on the fault maps، the potential seismic sources of the interest region were determined (twelve and six potential seismic sources for Zagros and Central-East Iran provinces، respectively). Then، the maps of the maximum and the spectral acceleration seismic zonation were prepared using a modified probabilistic approach (Shi et al.، 1992) as well as the spectral attenuation relationships of Campbell and Bozorgnia (2003) and also Ambraseys et al. (2005). In the modified probabilistic approach، the concept of spatial distribution function is introduced. By calculating the spatial distribution function، the contribution to annual mean occurrence rate of seismotectonic province is made for each potential seismic source. In other words، a spatial distribution function characterizes the seismicity differences among potential seismic sources. The spectral acceleration seismic zonation maps are produced for Peak Ground Acceleration (PGA) and periods of 0. 2، 0. 4، 0. 6 and 1 seconds using the EZ-FriskTM computer program. By multiplying the spectral response given in the standard 2800 to the zonation map of PGA، zoning maps for other periods were obtained based on the spectral acceleration and compared with the results of the direct estimation method. Macrozonation probabilistic seismic hazard maps of the interest region for 10% and 63% probability of exceedance were produced for each attenuation relations. It was shown that the maximum horizontal acceleration in Isfahan city for a 10% exceedance in 50 years، via Campbell and Bozorgnia (2003) and Ambraseys et al. (2005) relations was equal to 0. 1g and 0. 19g، respectively. As the spectral acceleration curve for the Isfahan city showed، the largest horizontal acceleration using Campbell and Bozorgnia (2003) relation obtained as 0. 35g in the period 0. 1 sec، while with the use of the Ambraseys et al. 2005) relations، it was obtained as 0. 61g at period of 0. 11 sec. It means that the frequency content of acceleration derived from both attenuation relationships was the same. In addition، a comparison between the spectral acceleration obtained via attenuation relationships and the one derived from the IBC and standard 2800 of Iran in different periods، exclusively for the city of Isfahan showed that up to 0. 1 sec، the spectral acceleration of standard 2800 of Iran and the values obtained from Ambraseys et al. (2005) relations were substantially close to each other. However، the spectral accelerations derived from Campbell and Bozorgnia (2003) relations have a lower value than those obtained based on standard 2800 and Ambraseys et al. (2005) relations. Considering these results as well as the less involvement of Iranian event data in Campbell and Bozorgnia (2003) attenuation relations than Ambraseys et al. (2005)، the second one was more reliable at the interest region of this study. The spectral acceleration obtained from standard No. 2800 of Iran for the periods larger than 0. 1 sec showed some values more than those obtained from other methods. According to the comparison made in the present study، this discrepancy may be due to a lack of sufficient accuracy of the relations proposed in standard 2800 of Iran. All calculations in the present study have been conducted for soil type I (according to the standard 2800).
    Keywords: Spectral acceleration, peak ground acceleration (PGA), probabilistic seismic hazard assessment (PSHA), Isfahan region
  • Muhammad Ali Ahmadi, Vahid Ebrahimzadeh Ardestani*, Loghman Namaki Pages 120-133
    The wavelet transform is used to estimate geometrical parameters of two-dimensional cross sections of gravity sources in which the continuous wavelet transform shows the location of the potential field singularities in a geometrical pattern as a simple cone the apex of which tend to the corners of the source cross section. Within the space-scale framework، the continuous wavelet transform، in special scales domain related to the wavelength of causative body anomaly، the lines formed by joining the modulus maximum of the wavelet coefficients، intersect each other at the position of the point source or along the edges of the anomaly source (multi-scale edge detection method). However، the procedure may fail، since the observed anomalies are superpositions of effects of different sources. Therefore، the total anomaly signal is separated based on dividing its high to low frequencies into several levels. This method was applied to synthetic data of a complex model in which the shallow source، a structure with a triangular cross section is located above the intersection of two trapezoids with infinite lengths which are cross sections of a deep structure. Therefore، shallow and deep effects are often located in low and high levels، respectively. To attenuate the effect of shallow sources، a majority of the wavelet reconstruction coefficients of the signal were muted in low levels. Eventually، the whole of wavelet coefficients reconstructed and filtered anomaly signal due to the deeper sources resulted. Then، the signal was analyzed and the corners of the cross section of the deep source were estimated by the multi-scale edge detection method. Therefore، the effects due to the deeper sources from those of the shallower ones were reconstructed by a joint application of discrete wavelet transform as a powerful tool and continuous wavelet transform. The method was also applied to noisy data (4%). The available real data was that of Sardinia (Italy). From a geological point of view، it has a Paleozoic basement، consisting mainly of granitic metamorphic rocks; its western sector is intersected by an N-S trending Oligo-Miocene Rift (the Sardinia Rift) containing the Campidano graben the limits of which are the Gulfs of Oristano and Cagliari extended in the southern part of the island. The upper part of the depression is filled by a Pliocene Quarternary sequence. In this research، the boundaries and the length position of the graben were estimated by applying the method to a profile consisting of 334 data points with a 0. 6 km step، extended to 512 data points in order to avoid end effect of the edges، which was in good agreement with other geological and geophysical interpretations.
    Keywords: Continuous wavelet transform, discrete wavelet transform, filtering, gravity anomaly, multi, resolution analysis, multi, scale edge detection
  • Mozhdeh Hafezi, Mozhgan Rezaeimanesh, Alireza Mohebalhojeh*, Abbas Ali Ali Akbari Bidokhti, Mohammad Ali Nasr Esfahani Page 134
    With regard to the adverse effects of air pollution in Tehran on its residents، it has become vital to investigate the meteorological factors that determine conditions favorable for the establishment of critical air-pollution episodes. Among these factors، the largescaledynamical processes acting in the upper troposphere are particularly important، as they can provide a means of predicting the critical episodes using the medium-range weather forecasts. As a step in exploring such factors، this study focused on some aspects of the large-scale upper-tropospheric flow believed to have a significant impacton lowlevel flow. The upper-tropospheric jet stream with its possible split and the Rossby wave breaking as a way of detecting and measuring blocking strength were examined using various diagnostics including the distribution of potential temperature θ on the 2 PVU (a potential vorticity unit is equal to 10-6 m2 s-1Kkg-1) surface corresponding to the position of the dynamical tropopause. The analysis was carried out for a prolonged، acute episode of air pollution in Tehran. For quantification، the previously introduced Split Flow Index (SFI) and the Rossbywave breaking index، referred to as β for brevity were employed to identify the jet split and blocking formation، respectively. The Global Forecast System (GFS) data consisting of geopotential height، temperature and horizontal velocity components were used for the three-month period of 1 Nov 2010 to 31 Jan 2011. The geopotential height at 500 hPa، and the wind speed، relative vorticity and streamfunction fields at 300 hPa were analyzed to determine the synoptic structure associated with the intense air-pollution in Tehran from 22 Nov to 22 Dec 2010 (the month of Azar 1389 in Iranian calendar). The synoptic structure indicates persistent blockings in the Northern Atlantic، and the formation of deep troughs in the southern Europe together with strong ridges in their downstream sides. The high values of the geopotential height field، the negative relative vorticity and low wind speed in the middle and upper troposphere were the dominant features over Iran. To compute the SFI، three regions had to be involved: the subtropical jet (STJ)، the polar front jet (PFJ) and the gap between these two (GAP). The SFI was computed by subtracting the mean relative vorticity of GAP from the sum of mean relative vorticities of the STJ and PFJ regions. The sign and magnitude of the SFI were criteria for the occurrence and strength of a split jet. The results for the SFI were generally sensitive to the longitudinal and temporal interval used in computation of the SFI. By considering broader and longer longitudinal and temporal intervals، respectively، more accurate values for the SFI index could be obtained. With regard to the latter sensitivities، it was shownthat within the positive values of SFI in the large part of Nov. and Dec. 2010 representing non-split flow، there was the period 9 to 14 Dec. 2010 during which the formation of a transient blocking over central Asia led to negative (positive) values of SFI at the beginning (end) of this period. The blocking formation was associated with the reversal of the meridional gradient of θ on the 2 PVU surface. For this reason، the β index was used as a dynamical tool to detect and identify a blocking based on the distribution of θ on potential vorticity surfaces. Results showed positive values of β over Iran for a few days in the middle of Azar (early Dec. 2010)، indicting the the presence of a transient blocking. There was also a second case of positive values of β from 11 to 16 Dec.، which closely followed the negative values of the SFI (split-flow regime) from 9 to 14 Dec. over central Asia.
    Keywords: Jet stream, blocking, jet split, Rossby, wave breaking, 2 PVU surface, reversal of meridional gradient of potential temperature