فهرست مطالب

ژئوفیزیک ایران - سال هفتم شماره 3 (پیاپی 18، پاییز 1392)

مجله ژئوفیزیک ایران
سال هفتم شماره 3 (پیاپی 18، پاییز 1392)

  • تاریخ انتشار: 1392/08/13
  • تعداد عناوین: 12
|
  • آرش حدادیان، علی نجاتی کلاته، فرامرز دولتی ارده جانی صفحه 1
    برآورد عمق توده بی هنجار، نقش مهمی در تفسیر داده های میدان پتانسیل ایفا می کند. تاکنون روش های متعددی برای این منظور در حوزه مکان و عدد موج عرضه شده است. در این مقاله برای برآورد عمق توده بی هنجار از روش خودکار طیف توان استفاده شده و نتایج آن با نتایج حاصل از روش اویلر مقایسه شده است. روش اویلر بر مبنای محاسبه گرادیان های میدان پتانسیل است و تنها محدودیت زمین شناسی در نظر گرفته شده برای آن ضریب هندسی است. روش اسپکتور و گرانت نیز با استفاده از آهنگ کاهش طیف توان، عمق میانگین منبع بی هنجاری را محاسبه می کند. عمق به دست آمده از این روش دارای خطای زیادی است، به همین خاطر فدی و همکاران با معرفی آهنگ کاهش توانی که مستقل از عمق است، طیف توان را تصحیح کردند. برای مقایسه این دو روش از یک مدل مصنوعی متداول استفاده شد و نتایج به دست آمده مورد مقایسه قرار گرفت. هرچند هر دو روش نتایج مطلوبی در بر داشته اند اما روش اویلر بسیار تحت تاثیر ضریب هندسی انتخاب شده برای ساختار زمین شناسی مورد نظر است. این دو روش اولین بار برای برآورد عمق پی سنگ های نفتی روی نیم رخی از داده های گرانی شمال غربی ایران (حوضه رسوبی مغان) استفاده شده است که نتایج به دست آمده، همخوانی زیادی با نتایج حاصل از لرزه نگاری دارد.
    کلیدواژگان: روش اویلر، طیف توان، ضریب هندسی، فاکتور عمق، فاکتور عرض، حوضه رسوبی مغان
  • فرشته جعفری حاجتی، مریم آق آتابای صفحه 13
    زوج زمین لرزه اهر – ورزقان به صورت دو رویداد پی درپی در فاصله زمانی نسبتا کوتاهی از هم، در تاریخ 21 مرداد ماه 1391 (11 اوت 2012) شهرستان های ورزقان، اهر، هریس و پیرامون آن واقع در استان آذربایجان شرقی را به شدت لرزاند که موجب خسارت های جانی و مالی فراوان شد. این تحقیق به منظور بررسی رابطه برهم کنش بین زوج زمین لرزه و همچنین بین این حوادث و پس لرزه ها صورت گرفته است. بدین منظور، تغییرات تنش هم لرزه ای ناشی از زمین لرزه اول آذربایجان و همچنین زوج زمین لرزه به روش مدل تغییر تنش کولمب مورد محاسبه قرار گرفت. بررسی های صورت گرفته نشان می دهد که گسیختگی دوم در محدوده افزایش تنش اطراف کانون زمین لرزه اول و پس لرزه ها نیز در نواحی افزایش تنش حاصل از زوج زمین لرزه روی داده است. ازاین رو نتایج حاصل بیانگر رابطه برهم کنش بین زوج زمین لرزه اهر- ورزقان و همچنین بین این دو رویداد اصلی و پس لرزه ها است. علاوه براین، با توجه به قرارگیری پس لرزه ها در نواحی افزایش تنش ناشی از زوج زمین لرزه، می توان نتیجه گرفت که مدل تغییر تنش کولمب روش خوبی برای ارزیابی مناطق مستعد حوادث لرزه ای است. آگاهی از مناطق مستعد خطر، نقش مهمی در جهت کاهش خسارت های جانی و مالی پس از وقوع زمین لرزه اصلی ایفا می کند.
    کلیدواژگان: زوج زمین لرزه اهر - ورزقان، تغییر تنش کولمب، پدیده برهم کنش، توزیع مکانی پس لرزه
  • بررسی رفتار نمونه های بتن درزه دار با استفاده از روش های سرعت موج تراکمی و مقاومت ویژه الکتریکی
    اصغر سیاه منصوری، احمد قربانی صفحه 35
    بررسی درز ها و ناپیوستگی ها بر خواص فیزیکی سنگ، برای درک بسیاری از مشکلات کلیدی در زلزله شناسی، آتشفشان شناسی و ژئوتکنیک ضروری است. در سال های اخیر استفاده از روش های ژئوفیزیکی برای برآورد ویژگی های فیزیکی و مکانیکی سنگ ها، به دلیل مزایای آن گسترش یافته است. در تحقیقات گذشته، میزان تخلخل سنگ را با استفاده از سرعت موج تراکمی با روابط تجربی برآورد کرده اند. همچنین روابط بسیاری برای ارتباط میان مقاومت ویژه الکتریکی و تخلخل عرضه شده است. در این تحقیقات، اثر درزه و ناپیوستگی ها در نظرگرفته نشده است. در این مقاله به منظور اثردهی ناپیوستگی ها در نمونه های آزمایشگاهی، از مدل سازی فیزیکی سنگ (ریزدانه و درشت دانه) با نمونه های بتنی و ناپیوستگی های مصنوعی استفاده شده است. بدین منظور تعداد 20 نمونه بتنی استوانه ای، طبق استاندارد NQ ISRM در آزمایشگاه تهیه شد. درزه های مصنوعی با ابعاد متفاوت در هنگام ساخت نمونه در آن قرار داده شد. نمونه ها به مدت 6 روز در آب قرار داده شدند و پس از خارج شدن از آب، به مدت 24 ساعت تا خشک شدن کامل در گرمکن گذاشته شدند، و سپس در حالت خشک و اشباع، سرعت موج کشسان تراکمی و مقاومت ویژه الکتریکی اندازه گیری شد. اندازه گیری سرعت موج تراکمی روشن ساخت که با توجه به رابطه ریمر و همکاران، رفتار درزه (ناپیوستگی) با ضریب اصطکاک کم (وجود یونولیت، طلق نازک و کاغذ برای ایجاد درزه) در نمونه ها، شبیه وجود آب در منافذ نمونه بدون درزه است. آهنگ کاهش سرعت موج تراکمی با افزایش چگالی درزه داری در نمونه های خشک بیشتر از نمونه های اشباع است. افزایش چگالی درزه داری (درزه های ترنشو: درزه های پرشده با یونولیت، طلق نازک و کاغذ) در نمونه های اشباع باعث افزایش مقاومت ویژه الکتریکی با رابطه لگاریتمی با ضریب همبستگی 97/0 درصد می شود.
    کلیدواژگان: سرعت موج تراکمی، مقاومت ویژه الکتریکی، تخلخل، چگالی درزه داری
  • حمید ستاری، علی غلامی*، حمیدرضا سیاه کوهی صفحه 36

    تجزیه طیفی نقش مهمی در پردازش و تفسیر سیگنال های لرزه ای دارد به طوری که از آن درحکم یکی از نشانگرهای پس از برانبارش در اکتشاف ذخایر هیدروکربنی استفاده های زیادی می شود. هرچه تفکیک پذیری تبدیل زمان بسامد مورد استفاده در تجزیه طیفی بیشتر باشد، نتایج به دست آمده مطلوب تر خواهد بود و به همین دلیل، محققان گوناگون در زمینه پردازش سیگنال همواره در پی عرضه تبدیل های بهتر یا بهینه سازی تبدیل های قبلی هستند. به دنبال الگوریتمی که غلامی و همکاران (2010) برای تجزیه سریع زمان بسامد بر مبنای تنکی عرضه کردند، در این مقاله یک قید تنکی دیگر برای بهینه سازی لحظه ای به آن اضافه شده است که سبب می شود نقشه زمان بسامد حاصل، قابلیت تطابق بیشتری با تغییرات محلی سیگنال داشته باشد. از تطابق ایجاد شده می توان در مقاصد تفسیری و پردازشی بهره گرفت. برای نشان دادن توانمندی این بهینه سازی، تبدیل حاصل برای تجزیه طیفی چندین داده مصنوعی و نیز یک نمونه داده واقعی با هدف تفکیک لایه های نازک مورد استفاده قرار گرفته است.

    کلیدواژگان: بهینه سازی لحظه ای، تجزیه زمان بسامد بر مبنای تنکی، لایه نازک
  • حسن بخشنده امنیه، معین بهادری صفحه 49
    یکی از عملیات پرکاربرد در فعالیت های معدنی و عمرانی، استفاده از روش های انفجار کنترل شده است. استفاده از روش های انفجار کنترل شده علاوه بر کاهش هزینه های نگهداری کیفیت ظاهری، جبهه کار را افزایش می دهد. یکی از روش های معمول در عملیات انفجار کنترل شده، انفجار پیش شکافی است. در این روش چال های انفجاری با فاصله داری کمتر نسبت به چال های تولید در آخرین ردیف حفاری می شود. برهم نهی امواج تراکمی حاصل از انفجار چال های مجاور، موجب تولید تنش های کششی در راستای عمود بر خط واصل بین چال ها و منجر به شکستگی های کششی در توده سنگ می شود. در این تحقیق، با استفاده از نرم افزار المان مجزای UDEC سازوکار انتشار ترک ها و برهم نهی امواج حاصل از انفجار پیش شکافی سه چال بررسی و با نتایج آزمایش میدانی انفجار در توده سنگ کنگلومرای منطقه سد گتوند علیا مقایسه شده است. در آزمایش میدانی چال های انفجاری به قطر 76 میلی متر، عمق 3 متر و فاصله داری 85 سانتی متر نسبت به هم حفاری می شوند که با هفت فشنگ ماده منفجره امولایت ترکی 27 و با رابط انفجار فتیله انفجاری خرج گذاری شده اند. لرزش های ناشی از انفجار با دو دستگاه لرزه نگار VIBROLOC در فواصل 8 و 13 متری به ترتیب برابر 24/175 و 33/77 میلی متر بر ثانیه اندازه گیری شده است. نتایج مدل سازی عددی انطباق مناسبی با نتایج انفجار پیش شکافی دارد.
    کلیدواژگان: انفجار کنترل شده، کنگلومرا، مدل سازی عددی، سد گتوند علیا
  • امیر ریوندی، محمد علی نصر اصفهانی، محمدحسین معماریان صفحه 66
    نوسان اطلس شمالی (NAO) به منزله یکی از مهم ترین عوامل وردایی سالانه گردش کلی جو در نیمکره شمالی شناخته می شود. در این تحقیق با استفاده از تابع های متعامد تجربی (EOF) به بررسی وردایی ارتفاع ژئوپتانسیلی ترازهای 1000 و 500 هکتوپاسکال در دوره 1948-2005 برای فصل زمستان در منطقه دریای مدیترانه و جنوب غرب آسیا با استفاده از داده های NCEP/NCAR پرداخته شده است. نتایج نشان داد که 8/32 و 2/16درصد از کل واریانس ارتفاع تراز 1000 هکتوپاسکال به ترتیب ناشی از مد های شماره یک و دو است و اولین مد استخراجی برای منطقه الگوی نوسان شمالگان (AO) را نشان می دهد. دو مد اول وردایی ارتفاع تراز 500 هکتوپاسکال به ترتیب دارای 24 و 4/21 درصد واریانس هستند که اولین مد الگوی نوسان شرق اطلس- غرب روسیه را نشان می دهد. در ادامه ماه های با مقادیر بحرانی نمایه مثبت و منفی نوسان اطلس شمالی مشخص شد و تابع های متعامد تجربی برای این ماه ها به طور جداگانه محاسبه و استخراج شده است. ماه های بحرانی فاز منفی NAO شامل 33 ماه و مدهای استخراج شده برای این ماه ها برای ارتفاع تراز 1000 هکتوپاسکال به ترتیب شامل 35 و 20 درصد از کل واریانس است. برای این فاز مدهای اول و دوم وردایی ارتفاع تراز 500 هکتوپاسکال در منطقه مدیترانه به ترتیب دارای 5/31 و 17 درصد واریانس هستند. ماه های بحرانی فاز مثبت NAO نیز شامل 29 ماه و مدهای استخراجی برای ارتفاع تراز 1000 و 500 هکتوپاسکال به ترتیب دارای 4/31، 5/23 و 29/17 درصد از کل واریانس است.
    کلیدواژگان: مدیترانه، نوسان اطلس شمالی، تابع های متعامد تجربی، نوسان شمالگان، نوسان شرق اطلس، غرب روسیه
  • حسینعلی قاری، احمد قربانی، عبدالحمید انصاری صفحه 78
    قطبش القایی طیفی (SIP) شاخه ای از روش های ژئوفیزیکی است که به طور گسترده در پی جویی های معدنی و زیست محیطی مورد استفاده قرار می گیرد. برای تفسیر و وارون سازی داده های قطبش القایی طیفی با مدل کول-کول، چهار پارامتر r0، m، t و c بازیابی می شود. تحقیقات زیادی در زمینه بازیابی پارامترهای کول-کول از داده های قطبش القایی طیفی صورت گرفته است که اکثرا براساس روش های کمترین مربعات خطا استوار است. در پژوهش حاضر از توسعه استنباط بیزی (Bayesian) برای برآورد پارامترهای دو کول-کول استفاده شده است. در این استنباط دو روش مرسوم برای نمونه برداری از تابع توزیع پسین وجود دارد: 1.روش شبیه سازی بازپخت (Simulated Annealing (SA)) 2. روش نمونه برداری گیبس(Gibss Sampling (GS)). در مقاله حاضر، ابتدا نمونه برداری با استفاده از روش شبیه سازی بازپخت صورت گرفته است. این الگوریتم در محیط نرم افزار مت لب برنامه نویسی شده و با رایانه ای به بسامد 2.53GHz و حافظه زنده 4Gb اجرا شده است. سپس الگوریتم نمونه برداری گیبس، که چن و همکاران آن را گسترش داده اند، بازسازی شده است. همچنین، نتایج وارون سازی حاصل از دو الگوریتم برای داده های قطبش القایی طیفی مصنوعی و واقعی به دست آمده در آزمایشگاه، با هم مقایسه شده است.
    نتایج نشان می دهد که هر دو روش یک رهیافت کلی برای وارون سازی پارامترهای مدل کول-کول از داده های قطبش القایی طیفی تامین می کنند، در یافتن کمینه واقعی موفق بوده اند، درگیر کمینه های محلی نمی شوند و برآورد های به دست آمده از آنها مستقل از مقادیر اولیه پارامترها است. برای داده های مصنوعی با نوفه تصادفی 10% و زمان 50 ثانیه، نتایج شبیه سازی بازپخت نسبت به نمونه برداری گیبس به داده های واقعی نزدیک تر است، درحالی که روش نمونه برداری گیبس برای رسیدن به چنین تقریبی به 6 دقیقه زمان نیاز دارد. برای داده های آزمایشگاهی نیز روش شبیه سازی بازپخت نسبت به روش نمونه برداری گیبس در زمان کمتر، برازش مناسب تری بر داده ها به دست می دهد. در نتیجه برای مسئله ای با پارامترهای بیشتر، زمان صرف شده در روش نمونه برداری گیبس به مراتب افزایش می یابد، درصورتی که روش شبیه سازی بازپخت، این زمان را به حداقل می رساند.
    کلیدواژگان: قطبش القایی طیفی، مدل کول، کول، معکوس سازی، روش بیزی، شبیه سازی بازپخت، نمونه برداری
  • سجاد قنبری، محمدکاظم حفیظی صفحه 93
    به منظور ارزیابی روش GPRدرحکم روشی غیر مخرب و سریع برای مکان یابی تاسیسات زیرسطحی، یک بررسی عملی در تونل نیایش تهران صورت پذیرفت. برای به دست آمدن نتایج مناسب، هم زمان از چند آنتن به منزله روش سخت افزاری و به کارگیری الگوریتم پردازشی درحکم روش نرم افزاری استفاده شد. آنتن های به کار گرفته شده، دارای بسامد های 100، 250 و 500 مگاهرتز هستند.
    در رادارگرام های به دست آمده، به سختی نشانه هایی از اهداف مورد نظر دیده می شد. ازین رو با استفاده از روندهای پردازشی مربوط به هر آنتن، کیفیت مقاطع تا حد مطلوبی افزایش یافت. رادارگرام آنتن 250 مگاهرتز کارایی و کیفیت بالاتری داشتند، به گونه ای که بسیاری از تاسیسات در این مقطع به خوبی پدیدار شدند.
    تحلیل سرعت به روش هذلولی پراش بوده است. با وجود اینکه در مورد تعیین نوع لوله ها و کابل های مدفون در تحقیقات ژئورادار هنوز باید بررسی های بسیاری صورت بپذیرد، اما در این تحقیق با توجه به شرایط خاص تاسیسات، تلاش هایی برای تعیین نوع بی هنجاری و تفسیر کامل رادارگرام انجام شده است. درنهایت نتایج به دست آمده از پردازش و تفسیر داده های رادار در مقایسه با واقعیت زمین پس از حفاری، بسیار رضایت بخش بوده است و می توان از مزایای روش ژئورادار در تحقیقات عمرانی مشابه بهره گرفت.
    کلیدواژگان: آنتن های GPR، پردازش، تاسیسات مدفون، تفسیر رادارگرام، ژئورادار
  • ثابت بودن چگالی با تانسورگرادیان به منظور به کارگیری صحیح روش فضای گرادیان
    نعیم موسوی، ابراهیم زاده اردستانی صفحه 107
    یکی از روش های تفسیر داده های گرانی که به منظور تعیین عمق ساختار مدفون از آن استفاده می شود، روش نمودار فضای گرادیان است. در گام نخست، پارامتر های لازم از قبیل طول و زاویه از نمودار گرادیان افقی برحسب گرادیان قائم یا همان نمودار فضای گرادیان، استخراج می شود. سپس با انتقال این پارامتر ها روی نمودار گرادیان قائم برحسب نیم رخ، امکان تعیین عمق فراهم می آید. یکی از شرط های استفاده از روش نمودار فضای گرادیان، ثابت بودن چگالی محدوده بی هنجاری است که در صورت برقرار نشدن این شرط، تفسیر نادرست است. برای بررسی یکنواخت بودن چگالی بی هنجاری، می توان آن را به صورت یک مکعب در نظر گرفت که خود به چهار مکعب یا منشورتقسیم می شود. اگر چگالی و اندازه همه منشور ها یکسان باشد، نمودار مولفه GYX دارای چهار قله متقارن خواهد بود. بررسی تقارن موجود بین قله های نمودار مولفه GYX تانسور گرادیان نشان می دهد که تغییر فاکتور چگالی در هر یک از منشور های مدل به صورت بر هم خوردن تقارن نمودار ظاهر می شود. ازاین رو نمودار پیش گفته درنقش ابزار تعیین ثابت بودن چگالی یا به عبارت دیگر ابزاری برای انتخاب داده های قابل تفسیر در روش نمودار فضای گرادیان که نیازمند شرط ثابت بودن چگالی در کل حجم بی هنجاری است، مطرح است. آزمون مولفه GYX تانسور گرادیان در مورد داده های واقعی نشان داد که چگالی در قسمت نخست از نیم رخ داده ها با تقریب قابل قبول، ثابت است. به کارگیری روش نمودار های فضای گرادیان در تفسیر این قسمت از نیم رخ، نتایج قابل قبولی در تعیین عمق بی هنجاری را به دنبال داشت که در مقایسه با نتایج به دست آمده از روش اویلر در تعیین عمق از دقت زیادی برخوردار بود. باتلر که مبدع روش تفسیر هندسی به کمک نمودارهای فضای گرادیان است، فهرست نامه ای عرضه کرده است که در آن شکل نمودار فضای گرادیان کلیه ساختار های متداول در تفاسیر ژئوفیزیکی به چشم می خورد. ازاین رو چنانچه محاسبات به درستی صورت گیرد، نمودار فضای گرادیان، مشابه یکی از شکل های پیشنهادی خواهد بود. در تفسیر بخش دوم از نیم رخ مشاهده شد که نمودار فضای گرادیان حاصل با هیچ یک از نمودار های پیشنهادی باتلر شباهت ندارد لذا امکان به کارگیری آن روش وجود نخواهد داشت. آزمون ثابت بودن چگالی برای قسمت دوم با نیم رخ داده های واقعی صورت گرفت و معلوم شد که چگالی در این قسمت از نیم رخ، ثابت نیست.
    کلیدواژگان: نمودار فضای گرادیان، تانسور گرادیان، چگالی، گرانی، تعیین عمق، گرادیان افقی و قائم
  • ایمان باباییان، مریم کریمیان، راهله مدیریان صفحه 119
    مدیریت منابع آبی در کشور به سبب وابستگی بخش عمده ای از فعالیت های اقتصادی به مقدار و توزیع زمانی بارش دارای اهمیت بسیار زیادی است و پیش بینی فصلی یکی از ابزارهای مهم در مدیریت بهینه منابع آبی محسوب می شود. در این تحقیق به منظور عرضه پیش بینی فصلی بارش استان خراسان رضوی، برون داد متغیر های متفاوت مدل دینامیکی MRI-CGCM3، در دوره 1981-2007 روی هفت ایستگاه هواشناسی استان خراسان رضوی پس پردازش شدند. داده های مدل از سازمان هواشناسی ژاپن اخذ شدند. نتایج نشان داد که استفاده از این روش باعث افزایش دقت پیش بینی های فصلی می شود؛ به گونه ای که در ایستگاه مشهد با اعمال فرایند پس پردازش آماری با استفاده از روش همبستگی چندمتغیره خطی، اریبی و خطای نسبی پیش بینی فصلی بارش به ترتیب از 43/107 به 99/2 میلی متر و از 15/66 به 78/0 کاهش یافت. همچنین میانگین اریبی بارش در کل استان از 3/94 به 5/3 میلی متر کاهش یافت. در این پژوهش پیش بینی فصلی در پنج طبقه بیش از نرمال، نرمال تا بیش از نرمال، نرمال، نرمال تا کمتر از نرمال و کمتر از نرمال تهیه و با داده های متناظر بارش دیدبانی مقایسه شد. نتایج نشان داد که توانمندی پیش بینی فصلی خام مدل 3/25 درصد است و با اعمال پس پردازش آماری تا 2/62 درصد افزایش می یابد که حاکی از بهبود 9/36 درصدی در توانمندی پیش بینی ها است. همچنین مشخص شد که اگر تعداد طبقات پیش بینی بارش از پنج طبقه به سه طبقه بیش از نرمال، نرمال و کمتر از نرمال کاهش یابد، توانمندی پیش بینی به 6/73 درصد افزایش خواهد یافت. به علت اریبی بسیار زیاد داده های خام مدل، اجرای فرایند پس پردازش آماری موجب شد تا خطای پیش بینی در همه ایستگاه ها بیش از صددرصد بهبود یابد. علاوه بر این مقایسه نتایج بارش پیش بینی شده با استفاده از روش جاری نشان می دهد که مدل توانسته است بارش های فصل پاییز 1391 را به خوبی پیش بینی کند. همچنین نتایج روشن ساخت که برخی شاخص هایی که برای راستی آزمایی پیش بینی عددی کوتاه مدت مورد استفاده قرار می گیرند، پاسخ صحیحی برای پیش بینی های فصلی به دست نمی دهند.
    کلیدواژگان: بارش، پس پردازش آماری، پیش بینی فصلی، ریزمقیاس نمایی، مدل MRI، CGCM3
  • شیرین میراحمدی شلمزاری، احمد سدیدخوی، علی رضایی نایه، غلام جوان دولویی صفحه 134
    بررسی پارامترهای ناهمسانگردی در پوسته فوقانی یکی از روش های مناسب برای بررسی زمین ساخت فعال در منطقه است. بدین معنی که می توان با استفاده از روابط ناهمسانگردی، ارتباط میان رویداد زمین لرزه و فعالیت گسلی خاص و در حالت کلی تر، راستای تنش زمین ساختی حاکم بر منطقه را به دست آورد. چنانچه اندازه یک پارامتر در جهت های متفاوت اندازه گیری یکسان نباشد، در آن صورت محیط مورد بررسی نسبت به این پارامتر، ناهمسانگرد خوانده می شود. محققان ناهمسانگردی لرزه ای در اعماق کم پوسته (10-15 کیلومتر) را نتیجه ای از جهت گیری ترجیحی ریز ترک های قائم می دانند. در پژوهش حاضر با استفاده از فاز برشی Sg، براساس روش تینبای و همکاران ارائه شده در سال 2004، پارامتر های ناهمسانگردی در پوسته فوقانی منطقه محمدآباد ریگان تعیین شده است. زمین لرزه اصلی در ساعت 22:11:58 روز 29 آذرماه 1389 با بزرگی 5/6 در مقیاس امواج گشتاوری (MW) در 52 کیلومتری جنوب شرقی محمد آباد ریگان کرمان و در مرز استان های کرمان و سیستان و بلوچستان به وقوع پیوست. برطبق نتایج به دست آمده حاصل از بررسی 654 لرزه نگاشت مربوط به شش ایستگاه موقت نصب شده از سوی مرکز لرزه نگاری کشوری، آزیموت راستای غالب ناهمسانگردی در منطقه محمدآباد ریگان 9 ± 45 درجه و آزیموت راستای کمینه تنش اصلی در منطقه 9 ± 135درجه به دست آمده است. همچنین میانگین بزرگی ناهمسانگردی 004/0 ± 18/0 ثانیه محاسبه شده است که با میزان ناهمسانگردی در پوسته فوقانی مطابقت می کند. با مقایسه نتایج حاصل از این پژوهش با روند پس لرزه های تعیین محل شده و بررسی های جی پی اس می توان فعالیت های زمین ساختی اخیر در منطقه را به روند گسلی جدید در بخش جنوبی گسل کهورک نسبت داد.
    کلیدواژگان: پوسته فوقانی، تنش، شبکه لرزه نگاری موقت، محمدآباد ریگان، موج برشی Sg، ناهمسانگردی
  • محمدرضا جعفریزاده، محمدرضا قیطانچی صفحه 146
    در این تحقیق با استفاده از توموگرافی زمین لرزه های محلی، تصاویر سه بعدی زیرسطحی مطلوبی از پوسته البرز مرکزی به دست آمده است. تصاویر به دست آمده نه فقط با تحلیل های زمین ساختی منطقه همخوانی دارند، بلکه توپوگرافی موهو و ساختار پوسته زیرین کوه آتشفشانی دماوند را تفسیر می کنند. برای به تصویر کشیدن پوسته البرز مرکزی بیش از 11000 زمین لرزه محلی با بزرگای بیشتر از 7/1 مربوط به لرزه نگار های سه مولفه ای دوره کوتاه شبکه های تهران، مازندران و سمنان، مورد بهره برداری قرارگرفته است که در بازه زمانی 1996 تا 2006 و در گستره 34 تا 37 درجه عرض شمالی و 7/49 تا 54 درجه طول شرقی ثبت شده اند. این زلزله ها، از یک سو برای وارون سازی یک بعدی با rms خروجی برابر با 15/0 ثانیه برای تعیین میدان سرعتی Vp و رسم نمودار سرعتی برحسب عمق استفاده شده اند و از سوی دیگر پس از تعیین موقعیت مجدد، درحکم داده های ورودی وارون سازی سه بعدی به کار گرفته شده اند. بعد از تعیین مدل سه بعدی اولیه و محاسبه مدل مستقیم به روش تفاضل متناهی، زمان سیرهای شکستی و بازتابی زاویه باز، وارون سازی سه بعدی صورت گرفت و براساس نتایج آن، مقاطع افقی و قائم از ساختار زیرین ناحیه موردنظر و ناپیوستگی های لایه های پوسته و موهو رسم و تحلیل شد. وضوح قابل قبول تصاویر خروجی براساس مدل آزمون شطرنجی، اعتبار نتایج را به اثبات می رساند. در تصاویر به دست آمده از توموگرافی سه بعدی صورت گرفته روی حجم مدل پوسته زیر شبکه ایستگاه ها، علاوه بر لایه رسوبی، سه لایه فوقانی، میانی و تحتانی به ترتیب از بالا به پایین تا مرز موهو قابل مشاهده است. خروجی های نهایی نشان دهنده آن هستندکه مدل پوسته به دست آمده با مقاطع قائم زمین شناسی در تحقیقات اخیر مطابقت دارد. در این خروجی ها مشاهده می شود که لایه فوقانی از دو لایه میانی و تحتانی ضخیم تر است به طوری که در زیر ارتفاعات البرز و حتی در بعضی نواحی دیگر، دو لایه میانی و تحتانی نازک تر شده و یا کاملا از بین رفته اند. در زیر قله دماوند در عمق های بیش از 48 کیلومتر، سرعت موج لرزه ای نسبت به محیط اطراف کاهش می یابد و درعین حال از عمق 6 تا 18 کیلومتر، محل مجرای آتشفشان دماوند از محیط مجاور پرسرعت تر و نسبت به محیط اطراف خود سردتر است. کم سرعت بودن محفظه آتشفشان دلیل بر گرم بودن این ناحیه نسبت به اطراف است.
    کلیدواژگان: توموگرافی، زمین لرزه های محلی، البرز مرکزی، مدل یک بعدی پوسته، مدل سه بعدی پوسته، لرزه زمین ساخت
|
  • Arash Hadadian, Ali Nejati Kalateh, Faramarz Doulati Ardejani Page 1
    Depth estimation of potential field anomalies has an important role in interpretation of potential field data. There are many methods for this purpose in space and wave-number domains. These methods are generally introduced for interpretation of magnetic data and then generalized to gravity data. In this study, the power spectrum automatic method was used to depth estimation of gravity dada and then it was compared with the results from the Euler method. The Euler method belongs to automatic depth estimation methods in a space domain and has been used by a number of authors for analyzing both magnetic and gravity anomalies. Euler’s homogeneity equation relates the potential field and its gradient components, either measured or calculated, to the location of the source with the degree of homogeneity expressed as a structural index (N). Thompson developed this technique and applied it to profile data. Reid et al. developed a more widely used version of this technique for grid-based data. Also, there have been more recent improvements on the technique including the estimation of the structural index. The interpretation of the gravity and magnetic data is preferred in a wavenumber domain because of a simple relation between various source models and the field. Depth estimation of the anomalous sources is usually carried out by Spector and Grant method and its variants in a wavenumber domain. These methods assume different assemblage of sources like statistical ensemble of prisms, white noise of vertical needles with constant magnetization, a sandwich model of uniaxially magnetic sheets, equivalent density layer, etc. Because of their simplicity, these methods have been in continuous use since their development. The Spector and Grant method relates the average depth of the source to decay rate of the power spectra. However, depth estimation by this method shows a large deviation from the real depth. Fedi et al. have shown the inherent power-law relation of power spectra in a potential field and from aeromagnetic spectra close to -3, they found the unique scaling exponent to be -2.9. Therefore, they introduced a power-law rate of the decay independent of the depth and corrected the power spectra using this factor. Here, we used a typical synthetic model for comparison of these methods. In this case, the depth value calculated from a non-corrected power spectrum was overestimated. However, the depth value found by a generalized power spectrum, introduced by Fedi et al., was close to the true assumed depth. Therefore, the results had a remarkable accuracy for both methods; but the Euler method was largely affected by the structural index of the related geological structure. These methods were applied to a profile of gravity data of the Northwest of Iran (Moghan sedimentary basin) for the first time to drive the mean depth of the basement. The application of the Euler method to the gravity data of Moghan sedimentary basin showed one layer with an acceptable depth value; the non-corrected power spectrum method showed two layers with overestimated depth values and the generalized power spectrum showed one layer close to the real depth value. Therefore, the generalized power spectrum method, like the synthetic model, has shown much better results in a good agreement with seismic works.
    Keywords: Euler method, power spectrum, structural index, depth factor, width factor, Moghan sedimentary basin
  • Fereshteh Jaafari Hajatil, Maryam Agh Atabai Page 13
    During the past decade, studies related to earthquake forecasting and assessment of seismic hazard have been focused on stress transfer and fault interactions. According to the earthquake interaction phenomenon, occurrence of any earthquake alters the stress state (the shear and normal stress) on its neighboring faults which can delay (decrease), or trigger (increase) subsequent events (Stein, 1999). In recent years, one of the models which have been widely used to estimate coseismic stress perturbations has been the static Coulomb stress changes. These calculations are done based on Okada’s code with assumption of a shear modulus of 3.2 × 105 bars and Poisson’s ratio of 0.25 using the program Coulomb 3.3 (Toda et al. 2005, Lin and Stein, 2004). The aim of this research is to explore the fault interaction through static stress transfer between Ahar-Varzaghan double earthquakes and the possible stress triggering relationships between these main shocks and their aftershocks. These double earthquakes occurred on August 11, 2012, near the cities of Ahar and Varzaghan in the East- Azerbaijan Province in the northwest of Iran. The first event with a magnitude of Mw 6.5 occurred at 16:53 local time, and the second one with Mw 6.3 took place about 10 minutes later. These earthquakes killed more than 306 people and a large number of people were injured. Ahar-Varzaghan double earthquakes followed by many aftershocks the largest of which occurred with a magnitude of MN 5.4. These double earthquakes occurred in places where no active faults have been identified, but there are numerous active faults in their surrounding area such as the North Tabriz Fault, Bozquosh Fault, and Ahar Fault. In order to investigate the fault interactions between Ahar-Varzaghan double earthquakes, Coulomb stress perturbations due to slip on the first source fault were calculated on a specified oriented receiver fault parallel to the second main shock. Receiver faults were planes with a specified strike, dip and rake, upon which the stress changes caused by source faults were resolved (Toda et al. 2005, Lin and Stein, 2004). Calculations of Coulomb stress changes indicated that the second earthquake occurred when the Coulomb stress was increased by the first event. Hence, the second event of Ahar-Varzaghan double earthquakes appears to have been triggered by an increase in the static Coulomb stress transferred by the first event. This means that the positive stress changes caused by the first source fault have promoted the failure on the second fault. In order to examine the triggering relationship between the aftershocks and the main shocks, the stress field due to Ahar-Varzaghan double earthquakes were calculated along two kinds of receiver faults including a specified oriented receiver fault and an optimally oriented strike - slip receiver faults (OOPs). The optimal receiver fault orientation is defined by the orientation of the principal axes of the regional stress field. The analysis shows that there is a good correlation between the spatial distribution of the aftershocks and the stress increased in the regions along the specified orientation receiver fault. Therefore, the aftershocks took place in response to the coseismic stress caused by the occurrence of Ahar-Varzaghan double main shocks. Hence, the stress-enhanced regions on this type of receiver fault can be introduced as the most likely site of the next earthquakes.
    Keywords: Ahar, Varzaghan double earthquakes, Coulomb stress change, interaction
  • Investigation of jointed concrete specimens using compressional wave velocity and resistivity
    Asghar Siahmansouri, Ahmad Ghorbani Page 35
    Recent developments in making new devices for geophysical surveys and the low costs of these surveys have made the geophysical methods such as compression sound waves velocity (P) and electrical resistivity (ρ) very common in the estimation of physical and mechanical properties of rocks. Raymer and colleagues proposed two new relationships between porosity and compression waves for low porosities and very high porosities. They used an interpolation method to estimate an average porosity between two limits. Studies have shown a good correlation (usually between 0.7 and 0.8) between the physical properties of rocks and the compression sound wave velocity. Compression sound wave velocity is a measure of intact rock wave velocity. Therefore, ignoring the crack effects adumbrates the results and generalizes it to rock mass. In this study, we made some artificial fractures in concrete samples in order to study the effect of discontinuities on the physical properties (P wave and electrical resistivity) in laboratory. In order to provide concrete samples, both B and C mix designs for modeling the fine and coarse grain were prepared. To simulate the various discontinuities in the samples, materials with different cohesion and negligible density of viscosity were used. Paper and talc were used to simulate high and very low cohesions, respectively and foam (unolit) was used for distant discontinuities. To prepare the standard samples, templates were constructed according to the NQ ISRM Standard. 20 templates (the number of samples, including 10 for each mix design) were considered. After preparing the concrete mix design based on both B and C mix designs, and lubricating the templates, the concrete was poured along with placement of discontinuities and artificial porosity. The natural porosities of the samples were determined according to ISRM (1981). The Pundit Device was used to test the compression wave velocity according to the standard ASTM D2845 (1978). To measure the electrical resistivity of the samples, the standard ASTM D5334-08 (2001) was used. This test is done in the full saturation. Since the porosity between individual samples for each type (fine or coarse grain) is constant, an increase in the total porosity is the result of an increase in the number of artificial joints and pores. In other words, increasing the joints (discontinuities) and artificial pores, causes an increase in the total porosity in the samples and a reduction in the wave velocity. Saturated samples followed the empirical model of Raymer and colleagues very well. In case of the specimens with equal artificial pores and joints, the wave velocity in the saturated state was larger than that in the dry state. Changes in the compression wave velocity with an increase in the number of joints are greater in dry samples than in saturated samples. In other words, by increasing the number of the joints, the saturation effect of the fluid filling the pores becomes more obvious. The best fit of the data on the electrical resistivity and total porosity (or an increase in the ratio of the joint volume to the pore volume) is a logarithmic relationship that has a correlation coefficient at least equal to 0.97. Considering that water does not replace with the artificial discontinuities, electrical resistivity increases with an increase in discontinuities.
    Keywords: Compressional wave velocity, electrical resistivity, Porosity, physical modeling, nonlinear regression, joint density
  • Hamid Sattari, Ali Gholami, Hamidreza Siahkoohi Page 36

    Time-frequency analysis plays an important role in seismic data processing and interpretations. In seismic exploration, the process is called spectral decomposition and refers to any method which produces a continuous time–frequency representation of the seismic trace. It is widely used as one of the most important post-stack attributes in hydrocarbon detection. Since spectral decomposition is a non-unique process, a single seismic trace can produce various time-frequency representations. This can be done using a variety of timefrequency methods that generate a time-frequency map of a signal. These methods include the STFT (Short-Time Fourier Transform), ST (S-Transform), CWT (Continuous Wavelet Transform), WVD (Wigner-Vile Distribution), MPD (Matching Pursuit Decomposition) and etc. Each method has its own advantages and disadvantages and different applications require different methods, but the important point is that the more resolution has the time-frequency transform, the more reliable the results will be.Therefore, the researchers in the field of the signal processing are always seeking more robust transforms or optimization of the previous ones. The short-time Fourier transform is an efficient tool to display the energy distribution of the real world signals over the time-frequency plane but due to the over completeness of Gabor functions, there are more than one set of time-frequency coefficients that represent the data. Therefore, it is a good approach to consider the decomposition as an inverse problem. By doing so, additional constraints can be applied to the decomposition to generate a time-frequency plane having desired properties. Decomposition with a sparsity constraint is a suitable strategy which enables selecting a small number of elementary functions such that a linear combination of them fit in the given data. Portiniaguine and Costagna (2004) compared the performance of the sparsity-based decomposition with that of the classical non-sparse approach for seismic data. Although the resolution of sparsity approach was much better, it computationally demanded much time and effort. Thereafter, a fast algorithm for Sparse Time-Frequency Decomposition was presented by Gholami et.al (2010) based on the Bregman iteration (Goldstain and Osher, 2008) which provided the time-frequency representation of the signal with profoundly high resolution in a satisfactory calculation time. In this study, another sparsity constraint has been supplemented for instantaneous optimization. The extra sparsity constraint makes the time-frequency plane more adaptive to the local changes of the signal while it does not affect the speed of the fast sparse time-frequency algorithm significantly. The final optimized transform is a good tool for decomposition of non-stationary seismic signals having dramatically different frequency components. Applications of the time-dependent optimization are developed to promote seismic data processing and interpretations. For example, by means of the high sensitivity of the resulted transform to seismic wavelet interference, it is shown that thin bed layers are characterized very easily. In order to highlight the efficiency of the proposed optimization, the final optimized fastsparse time-frequency transform is used for decomposition of real and synthetic seismic data. This is while the interpretational purpose of thin bed detection is considered.

    Keywords: Instantaneous optimization, sparsity based time, frequency decomposition, thin bed
  • Hassan Bakhshandeh Amnieh, Moein Bahadori Page 49
    Controlled blasting is commonly employed in civil and mining engineering developments. This reduces maintenance and supporting system costs and improves the bench appearance. Safe maintenance of the wall and avoidance of damage caused by blasting is therefore important in all subsequent underground and surface excavations. Different types of controlled blasting nowadays include trim blasting, line drilling, cushion blasting, pre-split blasting, fracture controlled method and linear shaped charge. Although these approaches incur additional operational costs, but considering benefits associated with the safety condition necessary for such operations, increased production and faster progress resulting from more stable walls, improved waste/ore ratio, controlled ore concentration and the required size reduction of the rock for haulage and loading, these additional costs are justifiable. Controlled blasting is also common in open-pit mining, quarry mining, trenching and shaft drilling. In case spacing and charge quantity are evaluated based on engineering design principals, a uniform fracture with narrow width would result. This would dampen the transfer of the explosion wave outside the explosion block, when production blast holes are fired. In pre-split blasting, which is a more common technique often used in such operations, blast holes with smaller diameters and lesser spacing than normal production sizes, are applied in the last drilling row. The method could easily be applied to all types of rocks. However, drilling patterns and the required explosive charges should be determined based on rock mass characteristics, such as stiffness, roughness, existence of discontinuities. Also, in pre-split blasting, contrary to other methods, the controlled blast holes are fired 50ms sooner than the main production blast holes. In case this delay exceeds 50ms for whatever reason, the fracture produced by the controlled blast holes will be filled with post-explosion fragments and their ability in cushioning the explosive transmitted wave is seriously hampered. Hence, in applications of this technique for hard rock mass, it is customary to leave a proportion of the blast holes without charge. The blast holes diameter in this technique varies from 51 to 102 mm, with the diameter of charge ranging from 17 to 32 mm, hence decoupling is less than one. The explosive connection is often carried out by detonating cord and if wire and electric detonators are used, they should be fast triggered type of milli-second delay or better. Superposition of compression waves due to adjacent blasting holes lead to tension stresses, perpendicular to the direction of blast-hole lines. This results in tensional fractures within the rock mass. In this study, using UDEC distinct element software, the mechanism of crack propagation and superposition of pre-split blasting waves in three holes are investigated, and the data are compared with field data obtained on the conglomerate rock mass at Gotvand Olya dam. Blast holes of 76mm in diameter, 3m height, 8 cm spacing were drilled at the rock mass and charging included 7 Emulite cartridges with cortex blasting. Ground vibrations of 175.24 mms-1 and 77.33 mms-1 were recorded by two VIBROLOC seismometers, placed at 8m and 13m away from the blast hole centre, respectively. The results suggest that numerical simulation could be employed with sufficient accuracy for predicting presplit blasting.
    Keywords: Presplit blasting, conglomerate, numerical modeling, Gotvand Olya dam
  • Amir Rivandi, Mohammad, Ali Nasr, Esfahany, Mohammad, Hosein Memarian Page 66
    Similar to the Southern Oscillation which is the most evident teleconnection pattern in the Southern Hemisphere, the North Atlantic Oscillation (NAO) is the most significant teleconnection pattern in the Northern Hemisphere. The NAO is known as one of the most important factors effective on the seasonal and annual variability of the atmospheric general circulation in the Northern Hemisphere. The NAO is a meridional large-scale oscillation in the sea level pressure of the subtropical Atlantic high pressure (Azores high pressure) and subarctic Icelandic low. In this study, Empirical Orthogonal Functions (EOFs) technique is used to investigate variability of the geopotential heights at 1000-hPa and 500-hPa levels. The data used covers the winter months (December to February) between 1948 and 2005 in the Mediterranean region and the south-west of Asia obtained from the NCEP/NCAR Reanalysis data set. EOF is a statistical method to calculate the variability of meteorological quantities. Meteorology and climatology scientists are faced with large amount of data (time series) which are obtained from meteorological stations or a regular network. Recently, EOF techniques have been used to reduce all known and unknown factors effective on the atmospheric variability to several new factors. These new factors (patterns of variation) are independent statistically and explain the major part of the total variance in the primary data. The advantage of this method is to describe the spatial and temporal variability of the meteorological quantity using just a few modes. Usually, most of the variance of a time series is distributed in the first few EOFs which can tell us about the undelying dynamical mechanisms working in the atmosphere. This method is described as an experimental method because the EOF patterns are computed using the covariance analysis of a specific data set.Results show that 32.8 and 16.2 percent of the total variance of geopotential height at 1000-hPa level are due to the first and second EOF modes, respectively. Therefore, the first mode indicates an Arctic Oscillation (AO) pattern. The AO is a simultaneous anomaly in the Sea Level Pressure (SLP) between polar and mid-latitude regions in the Northern Hemisphere. This anomaly has been indicated as positive and negative phases. The first two modes of the geopotential height variability at 500-hPa level explain 24 and 21.4 percent of the total variance, respectively. At this level, the first mode indicates the East-Atlantic/West-Russia Oscillation. In the next stage, all winter months are classified to critical positive and negative months based on their NAO indices, and EOF modes are separately extracted for the two groups. The critical negative months included 33 months. Their first two extracted modes for the 1000-hPa geopotential height explain 35 and 20 percent of the total variance, respectively in the whole Northern Hemisphere. The first two modes for the Mediterranean region show 31.5 and 17 percent of the total variance, respectively. The critical positive group included 29 months and the first two extracted modes for the 1000- and 500-hPa geopotential height show 31.4, 23.5 and 29, 17 percent of the total variance, respectively. It is also found that modes of the critical positive phase of the NAO correspond to the EOF modes of all the data used. However, they show more variability. In the critical positive phase of the NAO, the geopotential height variability at the 500- hPa level is noticeably greater than the critical negative phase in the Eastern Mediterranean and in Iran.
    Keywords: Mediterranean, North Atlantic oscillation, empirical orthogonal functions, Arctic oscillation, East, Atlantic, West, Russia oscillation
  • Hosseinali Ghari, Ahmad Ghorbani, Abdol Hamid Ansari Page 78
    Spectral induced polarization (SIP) method is an exploration geophysical method. The induced polarization (IP) method has been used extensively in mine prospecting and increasingly in environmental investigations because IP measurements are very sensitive to the low frequency capacitive properties of rocks and soils.Many different models have been proposed for the description of the dispersive behaviour of the IP. However, the most widely used model is the Cole-Cole model. This model describes the resistivity dispersion observed in field data from areas with metallic mineral content. It is also used to estimate various subsurface properties of nonmetallic soil and rocks in IP frequency domain investigations (SIP). A multiple Cole-Cole model is typically a more general and proper model than a single Cole-Cole model for describing IP data with various dispersion ranges caused either by multiple-length scales in sediments or by coupling effects in the IP measurements. The Cole-Cole model parameters are widely used to interpret both time- and frequency-domain induced polarization data. Among many studies in which the Cole- Cole parameters are estimated from SIP measurements on soils and rocks, a majority of them use least squares (deterministic) methods. In this work, we have developed a Bayesian method with simulated annealing sampling algorithm to invert single and double Cole-Cole parameters from SIP data. We have also reproduced the Gibbs sampling algorithm developed by Chen et al in 2008.The Bayesian approach consists of propagating the information provided by measurements throughout the model and combining this information with a priori knowledge of the data. A major limitation towards a more widespread implementation of Bayesian approaches is that obtaining the posterior distribution often requires the integration of high-dimensional functions. This can be computationally very difficult, but several approaches have been proposed which fall short of direct integration functions. Here, we focused on Markov Chain Monte Carlo (MCMC) methods, which attempt to simulate direct draws from some complex distribution of interest. The simulated annealing and Gibbs sampling are particular MCMC methods widely applicable to a broad class of Bayesian problems and have sparked a major increase in the application of Bayesian analysis. This interest is likely to continue in the future. In the Gibbs sampling method, the acceptance probability is 1; that is, Gibbs sampler candidates are always accepted. On the other hand, the acceptance probability is between 0 and 1 for the simulated annealing method.The MCMC-based inversion method provides extensive global information on unknown parameters such as the marginal probability distribution functions from which we can obtain better estimates and tighter uncertainty bounds of the parameters compared to deterministic methods. We compared performance of the the simulated annealing method with the Gibbs sampling algorithm method through an inversion of synthetic and real data. Both methods provide a global approach to invert SIP data for the Cole-Cole parameters in which the obtained estimates are independent of the initial values. In addition, this approach has the ability to avoid getting trapped in a local optimum.For synthetic data with 10% random noise and 50 second run-time, the results of the simulated annealing are more similar to the results of the Gibbs sampling method. The latter needs 6 minutes of time. Also, in the case of the real data obtained in laboratory, the simulated annealing method has provided a more suitable fit in comparison with the Gibbs sampling method. As a result, for a problem with more parameters, the required time is increased in the Gibbs sampling method, while the simulated annealing method reduces the required time.
    Keywords: Spectral induced polarization, Cole, Cole model, inversion, Bayesian, simulated annealing, sampling
  • Sajjad Ghanbari, Mohammad Kazem Hafizi Page 93
    Creating new routes for underground cables or intubation, keeping the subsurface utilities and protecting them during the excavation and building requires a thorough knowledge of the exact location of subsurface utilities. Overall good results in GPR closely depends on some factors such as soil type, anomaly properties, survey design and proper selection of antenna. Finally, applying the appropriate processing parameters in accordance with the conditions, soil type and anomaly properties will be out of control and therefore, two other factors i.e. survey design and application of advanced processing parameters will be more important. In survey design, the selection of survey methods such as CMP, 1D or 2D and the appropriate antenna are the main factors influencing the necessary resolution. GPR processing must be performed according to the specific conditions of each study. Since applying appropriate processing parameters can be useful, improper handling can be misleading. In order to locate buried water pipes and telecommunication cables, a GPR survey was applied to Niayesh Tunnel in Tehran. In primary sections, the pipes were not visible appropriately. The most important factor in hardware methods is choosing the correct antenna according to the site conditions and the studied depth. Appropriate processing methods are used in GPR sections as software in order to increase the signal-to-noise ratio for locating the target. According to this issue, we used central frequency shielded antennas (500 MHz, 250 MHz and 100 MHz). Then an advanced processing algorithm including several filters and recorrection parameters was applied. The velocity analysis was done according to the diffraction hyperbola method. In this study, it was attempted to determine the type of the buried anomalies and utilities. However, more research is needed to determine the pipe type of the buried utilities in a GPR survey. Finally, the results of the processing and interpretation of radar data were compared to the real conditions of underground properties. This research will be useful for future GPR work in similar civil excavation projects.
    Keywords: Buried utilities, georadar, GPR antenna, processing, radargram interpretation
  • The test of density constancy by gradient tensor for suitable usage of gradient space plot method
    Naeim Mousavi, Vahid Ebrahimzade Ardestani Page 107
    Gradient Space Plot (GSP) is a structural method for gravity data interpretation, which is used for depth estimation of buried structures. In this structural interpretation, determination of depth, size, geometry and density contrast using a gravity gradient is proposed. In 1995, a general procedure for classifying and analyzing gravity gradient profile data over 2D structures was presented completely by Butler. In that research, it was shown that GSP, i.e. plots of horizontal gradient versus vertical gradient, present the complete magnitude and phase information on the gradient profiles simultaneously. To perform this method, necessary parameters like length and angle are initially extracted from the gradient space plot. Then, they are transmitted to a plot of vertical gradient versus profile, which leads to depth estimation. It is worth remarking that a comparison of measured or calculated gradient space plots to a model gradient space plot catalogue allows a rapid, qualitative determination of structure or geometry. Here, we suppose the anomaly is similar to one of the presented structures in the Butler Catalogue. We know that the Butler method requires no quantitative information or assumptions regarding the density contrasts. In these structures, for a correct interpretation, the density is assumed to be constant. To assess the density consistency, we model any arbitrary anomaly with a series of right rectangular prism pairs, overlaid with their sides and parallel to x-axis. In previous research a method was developed to determine the gradient tensor components, based on a model consisting of four right rectangular prisms of the same size. On the other hand, a change in the density value for any prism leads to different values of a GYX plot peaks. Hence, a GYX plot can be used as an attribute to show a change in density over the anomaly. In other words, it is employed as a tool to select interpretable data in the GSP method in which the density of the considered anomaly should be constant. A 3D plot of the GYX component for the gravity gradient tensor produces a pair of peaks which lie above and below the model surface. The number of the peaks is equal to the number of the prisms. The most important feature of this plot is the complete symmetry that exists in its peak values which can be obtained from the constant density in all prisms. In the case of four prisms, we have four peaks the amplitudes of which are proportional to density contrasts of any prism. It can be possible to avoid the perspective issues by 3D rotating in a cyclic way. The 2D plots contain more accurate information to the size of the peaks. Application of the gradient tensor test for real data showed that the density was constant in the area of the first part of the profile. In the first section of the profile, present interpretation compared favorably with the Euler method. The density constancy test for the second part of the profile was performed. The density in this part of the profile was not constant. Therefore, the reason for an ill-posed usage of GSP was shown. Space plots due to this section of profile were not similar to those of the Butler catalogue.
    Keywords: Gradient space plot, gradient tensor, Density, Gravity, depth estimatin, GXZ, GZZ
  • Iman Babaeian, Maryam Karimian, Rahele Modirian Page 119
    In recent years, due to frequent climatic extreme events, demands for reliable seasonal precipitation forecasts have been increased. The seasonal to interannual climate forecasts have become essential for policy makers and risk managers in planning several activities, including those related to agriculture, water resource management and many others which directly or indirectly affect the society, especially in water resources and agricultural, environmental and health sectors. Although numerical models are being increasingly used to generate operational seasonal forecasts, the reliability of these products remains relatively low. In this regard, for improving the accuracy of seasonal precipitation forecasts, the outputs of the MRI-CGCM3 seasonal forecast model have been used for the statistical post-processing of the model precipitation over the synoptic weather stations of Khorasan-Razavi Province in Iran over the period of 1981-2007. We had the model output data from the Tokyo Climate Centre. The outputs of MRI-CGCM3 are available to registered National Meteorological and Hydrological Services (NMHSs) on the website of the Tokyo Climate Center of the Japan Meteorological Agency (JMA/TCC). Regression-based post processing methods have proven useful in increasing forecast skills. The current study tests this hypothesis applying both linear regressions to the correction of climate hind casts produced by MRI-CGCM3 general circulation models. Statistically significant predictions are produced from the model output with no forecast skill prior to post-processing. MRI-CGCM3 has produced 30 years of reforecast covering a period of 1981-2008. The reforecast data was used to produce post-processing multivariate relations between reforecast parameters and the observed precipitation in the training period of 1981-2001. Model variables and indices which were used in the postprocessing were WIO rain, Z2030, Z5060, WIO SST, T850, T2m, SST, NINOWEST SST, WNP RAIN, NINO3 SST, Z3040, H500, SLP, SAMOI RAIN, MC RAIN, DL RAIN, THMD, THTR and total precipitation. The skill of multivariate post-processing was evaluated using Mean Square Skill Score, Mean Bias Error, relative error and categorical skill score over the training and evaluation periods. Categorical skill score is determined by computing the skill of the post processed and the raw model data in forecasting five precipitation categories i.e. above normal, above normal to normal, normal, normal to below normal and below normal. The area of study covered Khorasan- Razavi province stations including Mashad, Golmakan, Ghuchan, Sarakhs, Torbate- Heydarieh, Kashmar and Sabzvar.Post processed precipitations were compared to the observed precipitations to investigate the capability of the statistical post processing method. After post processing, the bias and relative error decreased from 107.43 to 2.99 and 66.15 to 0.78 at Mashad station, respectively. Station average bias error decreased from 94.3 to 3.5mm and categorical skill was improved from 25.3% in raw data to 62.2% in the post processed data. The bias and relative error were significantly decreased in the other stations. The skill of the post-processing of precipitation was compared to the observed precipitation for all months. The result showed that the multiple regression method can be significantly used to increase the accuracy of the model predictions over Khorasan-Razavi province.
    Keywords: Precipitation, post processing, seasonal forecasting, statistical downscaling, MRI, CGCM3
  • Shirin Mirahmadi Shalamzari, Ahmad Sadidkhouy, Ali Rezaei Nayeh, Gholam Javan Doloei Page 134
    Studying anisotropy properties is a proper procedure to survey the rate of tectonic phenomena in the upper crust and mantle. Therefore, analyzing specific phases of the shear wave, which is intensely sensitive to both the earthquake mechanism and any anisotropy along the path in lithosphere and upper astonosphere, is worthwhile. Consequently, the aim was to determine the relation between the strain and anisotropy, calculation of anisotropic parameters around the world, and determining how much formed by past and present lithospheric deformation and how much by crustal and asthenospheric sources.Most of the researchers consider the anisotropy in the upper crust (10-15 km) as a result of micro crack orientations parallel to minimum main stress. Seismic anisotropy is the variation of seismic wave speed with direction. Whenever a shear wave reaches the anisotropic media, it splits into two directions called fast and slow directions. Parameters which describe the seismic anisotropy are the directions of the polarization of the fast shear wave (φ) and the splitting time between the fast and slow component of shear waves (δt). Two techniques are more commonly used to calculate the anisotropy parameters. The first one is based on the calculation of the cross correlation coefficient of the two horizontal S wave components (Bowman and Ando, 1987). The second one is based on the diagonalization of the covariance matrix of the S waves (Silver and Chan, 1991). Silver and Chan (1991) demonstrated that these two techniques were theoretically equivalent. Zhang and Schwartz (1994) found that the same results were inferred from the application of the two techniques to crustal earthquakes. The methodology in this research is based on the diagonalization of the covariance matrix of the S waves (Silver and Chan, 1991), which has been automated by Teanby et al. (2004). First, a shear-wave analysis window is defined. If anisotropy is present, the particle motion within this window will be elliptical. Second, a grid search over φ and δt is performed. The result that has the lowest second eigenvalue of the corrected particlemotion covariance matrix indicates linear particle motion after correction and is the solution that best corrects for the splitting.In sum, the method consists of three steps: First φ and δt are calculated for a range of start and end times, and a 2D diagram of φ versus δt is plotted. Second, a stable region with tight clusters or desired compaction is specialized by a cluster analysis. Finally, the optimized clusters are applied and the window with the least error in the evaluation of φ and δt is determined (Teanby et al., 2004). In order to select accurate wave forms, an important factor must be taken into consideration: The arrival angle of the S waves must be less than the critical angle. Because whenever S wave hits the surface at an angle (i) greater than the critical angle (ic= sin-1(Vp / Vs)), it can be recorded at the surface as elliptically polarized (Nuttli,1961; Booth and Crampin, 1985). Therefore, the arrival angel of S waves must be less than 35º (i < ic). We applied a casual band pass filter in the frequency range 1-15 Hz to the waveforms to avoid the effects of long period surface waves.This research is based on analyzing shear wave splitting by use of Sg phase to calculate the anisotropy at the upper crust in Mohammadabad Rigan (Southeast of Iran). Data were provided by the temporary seismic network, assembled by Iranian Seismological Center. By analyzing 654 waveforms, we observed an anisotropy at each station and evaluated the direction of the fast component of shear wave in N45 ± 9 °E. The calculated splitting time was 0.18 ± 0.004 (s) on average, which was in accordance with the splitting time in the upper crust. The direction was not consistent with the act of known faults in this region. Therefore, it showed a new fault trend considering the locations of micro earthquakes and the focal mechanism of the main event.
    Keywords: Anisotropy, Mohammadabad Rigan, shear wave Sg, stress, upper crust, temporary seismic network
  • Mohammad Reza Jafarizadeh, Mohammad Reza Gheytanchi Page 146
    In this study, applying a tomography method to local earthquakes, a three-dimensional (3D) image of the crust of central Alborz is obtained. The result is not only consistent with the tectonics features in the region but also abale to interpret the tomography of Moho and crustal structure beneath the volcanic mountain of Damavand. More than 11000 local earthquakes, with a magnitude of 1.7 or higher, recorded by three-component short-period seismic stations of Tehran, Mazandaran, and Semnan networks between 1996 and 2006, bounded by 34-37N and 39.7-54E, were used to image the crust in central Alborz. These raw pieces of data, on one hand, were used as input for the 1D inversion method to obtain the variation of Vp and plot the velocity versus depth diagram whose rms was smaller than 0.15. On the other hand, they were used in a relocation process and when their locations were improved, a 3D model was generated based on them. After determining the preliminary 3D and forward models using the finite-difference method, the refracted and wide-angle reflected travel times were inverted and the horizontal and vertical sub-structures in our determined region were investigated. Based on these results, the discontinuities of the crust and Moho were mapped and analyzed. The final outputs showed that the resulted crust model is consistent with some of the recent geological studies. These outputs illustrat that the upper layer is thicker than the middle and lower ones as these two layers become thinner and even disappear below Alborz. It seems that the upper layer fills some hollows in the other ones. The depth of Moho increases below Damavand mountain; also, the area around the volcanic conduit of Damavand, between 6km and 18km depths, has a high velocity and is colder than the other areas.The P-velocity model resulted by using 1D tomography facility of Velest with RMS values less than 0.15, are compatible with the previous models. The resulted depth is 45 ± 2 km for the Moho and 7 km for the sediment layer. Frequency and distribution diagrams of the earthquakes show that about 75% of earthquakes have happened in depths less than 24 km and consequently the most seismogenic layer of the crust is estimated to be located at this depth. The 3D tomography, performed through the Zelt routines, has acceptable results with less than 2.5% error. Although an enough number of earthquakes overcome the problem of scarcity of the stations, the high depths of earthquakes cause a low resolution in shallow layers. However, this problem can be solved by increasing the density of stations.
    Keywords: Tomography, local earthquakes, central Alborz, 1D crustal model, 3D crustal