فهرست مطالب

ژئوفیزیک ایران - سال هفتم شماره 1 (پیاپی 16، 1392)
  • سال هفتم شماره 1 (پیاپی 16، 1392)
  • تاریخ انتشار: 1392/03/25
  • تعداد عناوین: 10
|
  • استفاده از عدد موج چند مدلی به منظور برآورد عمق توده های دایک و پله ای شیب دار از روی داده های مغناطیس سنجی
    کمال علمدار، ابوالقاسم کامکار روحانی، عبدالحمید انصاری صفحه 1
    عدد موج محلی و عدد موج چندمدلی نشانگرهای مختلطی هستند که از سیگنال تحلیلی نتیجه می شوند. از این دو کمیت برای تفسیر داده های مغناطیسی دوبعدی حاصل از مدل تماسی، صفحه نازک و استوانه افقی استفاده می شود. در این مقاله عدد موج چند مدلی بهبودیافته ای معرفی شده است که از آن برای برآورد عمق مدل دایک شیب دار و همچنین عمق تا وسط مدل پله ای شیب دار استفاده می شود. این روش روی داده های مغناطیسی دوبعدی کاربرد دارد. بررسی رابطه عدد موج چندمدلی مدل های گوناگون منجر به توسعه تابع کلی می شود که فقط به عمق مدل وابسته است. در این مقاله با استفاده از روش برازش کمترین مربعات، عمق تا بالای توده ها برآورد می شود. این روش روی داده های مغناطیس دوبعدی مدل های دایک و پله ای شیب دار به کار برده شده است. همچنین این روش روی داده های نیم رخ مغناطیس سنجی به طول 150 کیلومتر در گوشه شمال شرقی چهارگوش انارک به نحو موفقیت آمیز به کار برده شده است. در این بررسی دو توده دایکی شکل در عمق های 2800 و 3000 متری تشخیص داده شده است. این عمق ها درحکم نقطه شروع مدل سازی پیشرو تکراری مورد استفاده قرار گرفتند که در نتیجه، داده های نیم رخ صحرایی با مدل زمین شناسی مناسبی برازش شد. همچنین به منظور مقایسه نتایج از روش تحلیل طیف انرژی استفاده شد. این روش نیز وجود دو توده در عمق را نشان می دهد که در عمق های 3500 و 2480 متری از سطح زمین واقع شده است.
    کلیدواژگان: عدد موج محلی، عدد موج چندمدلی، دایک شیب دار، پله ای شیب دار، انارک
  • یحیی مرادی چالشتری، حمیدرضا سیاه کوهی صفحه 14
    هدف از لرزه نگاری در واقع برداشت داده، پردازش آنها و درنهایت به دست آوردن یک تصویر قابل تفسیر از لایه های زیر سطح زمین است. در مرحله نمونه برداری گاهی به علت بعضی مشکلات از جمله نقص در عملکرد دستگاه های نمونه برداری، توپوگرافی نامناسب منطقه و محدودیت های محیطی نظیر ارتعاش کابل ها ممکن است بعضی از اطلاعات ثبت نشود (به بیان دیگر، نمونه برداری مکانی یکنواخت صورت نگیرد). یکنواخت ساختن نمونه برداری مکانی یا بازگرداندن و بازسازی اطلاعات از دست رفته می تواند با استفاده از روش های درون یابی و بازسازی داده ها صورت پذیرد. در این مقاله روشی برای بازسازی ردلرزه های از دست رفته در ثبت های لرزه ای معرفی شده است. این روش دارای الگوریتمی دو مرحله ای است. ابتدا قسمت بسامد کم و الیاس نشده داده ها به روش نرم وزن دار کمینه بازسازی می شود و سپس با استفاده از مدل خودبازگشتی، ضرایب فیلترهای پیشگویی برای همه بسامد ها از قسمت بسامد کم داده ها محاسبه می شود. درنهایت از این ضرایب فیلترهای پیشگویی برای بازسازی داده های از دست رفته بهره گرفته می شود. نتایج اعمال الگوریتم روی داده های لرزه ای مصنوعی و واقعی کارایی این روش را تایید می کند.
    کلیدواژگان: بازسازی داده، درون یابی، نرم وزن دار کمینه، مدل خودبازگشتی، فیلترهای پیشگویی
  • تعیین مرز داده های میدان پتانسیل با استفاده از تصویرسازی زاویه تتا
    علی نجاتی کلاته، امین روشندل کاهو صفحه 24
    تقویت لبه ها در داده های میدان پتانسیل می تواند به تفسیر داده های زمین شناسی کمک شایانی کند. تاکنون روش های متعددی برای افزایش توان تفکیک لبه ها عرضه شده است که اکثر آنها فیلترهای بالاگذر براساس مشتقات افقی یا عمودی - میدان هستند.
    محاسبه فاز محلی میدان پتانسیل ابزار مفیدی برای تشخیص لبه ها است. زاویه شیب در ایجاد توازن میان دامنه بی هنجاری های متفاوت موثر است، اما گزینه اول برای تشخیص لبه نیست. گرادیان کلی افقی زاویه شیب با موفقیت لبه های بی هنجاری با دامنه بزرگ را به خوبی تشخیص می دهد، اما نتایج آن در مدل های عمیق تر کمتر قابل ملاحظه است. تصویرسازی زاویه تتا از دامنه سیگنال تحلیلی برای نرمال سازی گرادیان کل افقی استفاده می کند. در این مقاله، کارایی سه روش پیش گفته روی داده های مصنوعی و واقعی مورد بررسی قرار گرفته است. نتایج نشان می دهد که روش تصویرسازی زاویه تتا لبه بی هنجاری های عمیق تر را از سایر روش های ذکر شده بهتر تفکیک کند.
    کلیدواژگان: میدان پتانسیل، تشخیص لبه، زاویه شیب، گرادیان کلی افقی زاویه شیب، تصویرسازی زاویه تتا
  • سید رضا مهرنیا، وحید ابراهیم زاده اردستانی، اصغر تیموریان صفحه 34
    روش متداول برای تعیین چگالی لوح سنگی، استفاده از الگوی نتلتون با هدف سنجش میدان گرانی مستقل از نشیب و فرازهای ساختمانی است که به طور موردی و به دلیل ضخامت زیاد پوسته در زاگرس چین خورده (جنوب ایران)، موجب افزایش خطا در خلال فرایند تصحیح می شود. از این رو تعیین مکان هندسی بی هنجاری ها نیازمند سنجش دقیق تر تغییرات گرانی به روش های غیرخطی است که پس از جمع آوری اطلاعات زمین مرجع و درون یابی داده ها، رابطه برخالی (فراکتالی) پراش مسافت با هدف تقریب چگالی لوح سنگی محاسبه می شود. نتیجه این تحقیق، دستیابی به کمیت های مستقل از روند هم ایستایی گوشته در سازندهای رسوبی منسوب به تاقدیس چارک است که به دلیل بهره گیری از تابع های نمایی در شناسایی مولفه های گرانشی متناظر، درحکم روشی نوین برای تقریب چگالی 4/2 کیلوگرم بر متر مکعب در بخشی از میادین نفتی استان هرمزگان پیشنهاد شده است.
    کلیدواژگان: چارک، چگالی لوح سنگی، برخال، گرانی سنجی، میدان نفتی
  • بررسی روش برگردان نسبی تانسور گشتاور لرزه ای با استفاده از داده های شبیه سازی شده و کاربرد آن در پس لرزه های زمین لرزه 28 فوریه 2006 فاریاب 0/6=Mw.
    علی رضایی نایه، ظاهر حسین شمالی*، محمدرضا حاتمی صفحه 51
    برگردان نسبی تانسور گشتاور لرزه ای روش سریع و مناسبی برای تعیین سازوکار زمین لرزه هایی است که نزدیک به هم رخ می دهند و در ایستگاه های مشترکی ثبت شده اند. در این روش با استفاده از اندازه گیری نسبی دامنه یک فاز خاص ناشی از چندین زمین لرزه ای که نزدیک به هم رخ داده اند و در ایستگاه های مشترک ثبت شده اند می توان با داشتن سازوکار زمین لرزه مرجع، بدون دانستن تابع گرین کامل سازوکار زمین لرزه های دیگر را به دست آورد. در این تحقیق سعی شد تا با تولید داده های مصنوعی تحت شرایط متفاوت و برگردان آنها به روش نسبی، تاثیر عوامل گوناگون همچون مقدار درصد CLVD (مقدار سهم مولفه غیر دوزوج نیرو) و همچنین تاثیر مدل سرعتی پوسته در نتیجه برگردان نسبی بررسی شود. مکان زمین لرزه هایی که در این تحقیق شبیه سازی شده اند مطابق با مکان زمین لرزه 25 مارس 2006 منطقه فین و 13 پس لرزه آن است که با استفاده از شبکه نوار پهن پژوهشگاه بین المللی زلزله شناسی و مهندسی زلزله (INSN) ثبت شده اند. بزرگی این زمین لرزه ها برحسب ML بین 5/3 تا 6/5 متغیر است. در این تحقیق چهار سری داده مصنوعی برای این 14 رخداد تولید شده است که تفاوت آنها در مقدار درصد دوزوج نیرو و همچنین مدل پوسته ای مورد استفاده است. با عمل برگردان برای این چهار سری داده مصنوعی این نتیجه حاصل شد که روش برگردان نسبی تانسور گشتاور برای تعیین سازوکار زمین لرزه هایی که در مقیاس محلی نزدیک به هم رخ داده اند (زمین لرزه های خوشه ای) مناسب است، همچنین نتایج نشان می دهد که افزایش غیرمنطقی و بیش ازحد مولفه غیر دوزوج نیرو در داده ها، باعث بروز خطا در این روش می شود؛ بااین حال تغییر نوع مدل پوسته ای به کار رفته در تولید داده ها، باعث به دست آمدن خطای قابل ملاحظه ای نمی شود و اثر مدل پوسته ای در برگردان نسبی کمینه می شود. با کمک این روش، سازوکار پس لرزه های زمین لرزه 28 فوریه 2006 فاریاب تعیین شده است. سازوکار های به دست آمده با روند کلی زمین لرزه اصلی تطابق دارند.
    کلیدواژگان: برگردان نسبی تانسور گشتاور، زمین لرزه های خوشه ای، زمین لرزه فاریاب، درصد دوزوج نیرو، لرزه نگاشت های مصنوعی
  • رضا قائدرحمتی، علی مرادزاده، نادر فتحیان پور، سهیل پرخیال صفحه 64
    روش نیم رخ زنی آرایه الکترومغناطیسی (Electromagnetic Array Profiling) یاEMAP یک حالت خاص از اندازه گیری های میدان مگنتوتلوریک (Magnetotelluric: MT) محسوب می شود. در این تحقیق داده های نیم رخ زنی آرایه الکترومغناطیسی منطقه اکلاهومای آمریکا شامل 93 دوقطبی الکتریکی مورد بررسی قرار گرفته است. ابتدا پردازش داده ها و حذف داده های نامناسب از نظر میزان نوفه و جداسازی محدوده مناسب بسامد برای مدل سازی داده ها صورت گرفته است. سپس با اجرای طرح واره های وارون سازی دو بعدی گرادیان مزدوج غیرخطی (NLCG) و اکام (Occam) روی این داده ها مدل های وارون برای تفسیر ساختار های زمین شناسی منطقه عرضه شده است. همچنین داده های چهار سونداژ مگنتوتلوریک (زمین مغناط برقی) با پنج مولفه مرسوم روی یک نیم رخ عمود بر امتداد برداشت داده های نیم رخ زنی آرایه الکترومغناطیسی نیز مورد بررسی قرار گرفته است و نتایج وارون سازی این داده ها نیز در تفسیر ساختار های زمین شناسی منطقه استفاده شده است. نتایج نشان می دهد که پردازش داده های اولیه و کنترل پارامتر های وارون سازی از جمله طراحی شبکه مناسب برای مدل سازی، مدل شروع، ضریب لاگرانژ و مقدار نبود برازش هدف برای تولید یک مدل مناسب بسیار موثر هستند و لذا با کنترل این پارامتر ها توانایی طرح واره های گرادیان مزدوج غیرخطی و اکام در مقایسه با سایر روش های مدل سازی وارون مشخص شده است. همچنین توانایی داده های نیم رخ زنی آرایه الکترومغناطیسی در به دست آوردن توزیع مقاومت ویژه رسوبات زیرسطحی مشخص شده است.
    کلیدواژگان: وارون سازی دوبعدی، داده های مگنتوتلوریک، جابه جایی های ایستا، روش نیم رخ زنی آرایه الکترومغناطیسی، مقاومت ویژه
  • امین روشندل کاهو، علی نجاتی کلاته صفحه 79
    نوفه یکی از عوامل مهم تخریب اطلاعات موجود در داده های لرزه ای بازتابی به منظور شناسایی مخازن هیدروکربوری است. نوفه های موجود در داده های لرزه ای همدوس یا ناهمدوس هستند. نوفه خط های انتقال نیرو یکی از متداول ترین نوفه های همدوس در داده های خشکی است و به صورت هماهنگ های تک بسامد با دامنه های بزرگ روی داده لرزه ای دیده می شوند. یکی از مراحل پردازش داده های لرزه ای، تضعیف نوفه های موجود در داده های لرزه ای است. روش متداول برای تضعیف نوفه خط های انتقال نیرو، فیلتر ناچ است. در این مقاله از فیلتر کمینه پراکنش برای تضعیف نوفه خط های انتقال نیرو استفاده شده و نتایج آن با فیلتر ناچ مقایسه می شود. نتایج نشان می دهد که فیلتر کمینه پراکنش در تضعیف نوفه خط های انتقال نیرو بهتر از فیلتر ناچ عمل می کند.
    کلیدواژگان: نوفه خط های انتقال نیرو، تضعیف نوفه، نوفه همدوس، فیلتر ناچ، فیلتر کمینه پراکنش
  • سید مجید میررکنی، علیرضا محب الحجه، فرهنگ احمدی گیوی صفحه 89
    در این تحقیق، با استفاده از داده های NCEP/NCAR، نقش گردش های پوشن سپهر در بی هنجاری های زمستان 1386 و 1388 بررسی می شود. بی هنجاری میدان های باد و دما حاصل از برهم کنش امواج سیاره ای وردسپهر و شارش میانگین ابتدا در پوشن سپهر زمستانه ظاهر می شود و سپس گسترش پایین سوی آنها اقلیم سطحی را تحت تاثیر قرار می دهد.
    سری زمانی هر کمیت هواشناختی شامل مجموعه ای از مدهای تغییرپذیری است. استخراج و تعیین سهم هر مد تغییرپذیری برای یک سری زمانی از یک کمیت دلخواه هواشناختی با استفاده از تابع های متعامد تجربی امکان پذیر است. نکته بارز در مقایسه مقادیر واریانس بین دو زمستان مورد بررسی، آن است که در زمستان 1386 واریانس مد پیشروی بی هنجاری ارتفاع در تراز hPa10 بزرگ تر از مقدار مشابه آن در زمستان 1388 است که این بیانگر قوی تر بودن تاوه قطبی در این تراز در زمستان 1386 است. وجود تاوه قطبی قوی تر در زمستان 1386 و رخدادهای گرمایش ضعیف، با بروز زمستانی سرد در منطقه شامل ایران همراه بوده است. ازسوی دیگر، حضور تاوه قطبی به نسبت ضعیف در زمستان 1388، گرمایش زودرس و انتقال الگوی دو قطبی دما به عرض های بالاتر، موجب بروز زمستانی گرم در منطقه شامل ایران شده است.
    نتایج حاصل از تابع های متعامد تجربی و فرایافت های اویلری نشان می دهد که وقوع (فقدان) گرمایش ناگهانی ضعیف یا قوی در اثنای زمستان موجب جابه جایی الگوی دوقطبی دمای سرد به عرض های پایین تر (بالاتر) و در نتیجه بروز زمستان سرد (گرم) در منطقه می شود.
    کلیدواژگان: برهم کنش وردسپهر، پوشن سپهر، فرایافت های اویلری، تابع های متعامد تجربی، مد پیشرو، تاوه قطبی، زمستان سرد
  • مریم اصلانی فر، وحید ابراهیم زاده اردستانی صفحه 105
    محاسبه ادامه فروسوی داده های گرانی در صفحه افقی زیر زمین از روش تبدیل فوریه یک روش ناپایدار است. در این مقاله یک روش تکرار برای محاسبه ادامه فروسوی داده های گرانی در صفحه افقی که زیر سطح زمین قرار دارد عرضه می شود. روش تکرار با استفاده از برنامه رایانه ای نوشته شده و برای مدل های متفاوت بررسی می شود. سپس این روش با روش تبدیل فوریه برای محاسبه ادامه فروسوی داده های گرانی برای مدل مصنوعی مورد مقایسه قرار می گیرد. پس از آن مقدار کمی نوفه به مدل مصنوعی اضافه و ادامه فروسوی داده های گرانی از روش تکرار در صفحه افقی زیر زمین محاسبه و میزان تغییرات میدان گرانی بررسی می شود. سپس ادامه فروسوی داده های گرانی با استفاده از روش تکرار برای مدل واقعی بررسی می شود. مشاهده می شود که روش تکرار برای محاسبه ادامه فروسوی داده های گرانی نسبت به روش تبدیل فوریه در فاصله پایین تری از سطح زمین میدان گرانی را محاسبه می کند و میدان گرانی محاسبه شده به روش تکرار، پایداری خوبی نسبت به میدان گرانی محاسبه شده از روش تبدیل فوریه دارد.
    کلیدواژگان: ادامه فروسو، پایداری، داده های گرانی، روش تکرار، صفحه افقی
  • امیر غلامی پور سی سختی، محمدرضا حیدریان شهری، خسرو ابراهیمی نصرآبادی، غلامرضا هاشمی مرند صفحه 116
    کانسار آهن ساغند تیپ ذخایر اسکارن منیزیمی است که در اثر نفوذ توده های آذرین گرانیتی ژوراسیک در واحدهای کربناته شکل گرفته است. چهار واحد سنگی میکاشیست، گنیس، اسکارن و آهک در منطقه وجود دارد. عمده رخنمون توده های آهن دار در واحد اسکارنی است که تقریبا در مرکز منطقه قرار دارد. براساس نقشه RTP مغناطیس سه بی هنجاری مغناطیسی A، B و C در منطقه وجود دارد. نقشه گرادیان اول قائم نشان می دهد که بی هنجاری A منابع کم عمق و سطحی دارد همان گونه که قسمتی از آن بر بیرون زدگی های آهن منطبق است. بی هنجاری B که بر آبرفت منطبق است در قسمت غربی منابع کم عمق در نقشه گرادیان اول قائم نیز نشان می دهد. اما قسمت شرقی بی هنجاری Bپاسخی ندارد. بی هنجاری C نیز که بر آبرفت منطبق است در نقشه گرادیان اول قائم پاسخی ندارد. با توجه به نقشه های فراسو مشخص می شود که فقط بی هنجاری A و قسمت غربی بی هنجاری B دارای پاسخ عمقی هستند و احتمالا منبع آنها کانی سازی آهن در عمق هستند. به علت پذیرفتاری مغناطیسی بسیار زیاد مگنتیت در کانسار آهن نسبت به دیگر واحدهای سنگی، بهترین منبع ایجاد کننده بخش غربی بی هنجاری B که بر آبرفت منطبق است می تواند مگنتیت در توده های آهن دار پوشیده باشد. دو بی هنجاری در داده های گرانی سنجی وجود دارد. با توجه به نقشه های گرادیان اول قائم و فراسو اولین اولویت حفاری روی بی هنجاری A تشخیص داده شد که بر بیرون زدگی های کانسار منطبق است. دومین اولویت حفاری روی قسمت غربی بی هنجاری B شناسایی شد که بر آبرفت منطبق است. این نتایج حفاری هماهنگ با پاسخ مغناطیسی نقشه های گرادیان اول قائم و فراسو است و آنها را تایید می کند.
    کلیدواژگان: کانسار آهن ساغند، بی هنجاری، مغناطیس سنجی، گرانی سنجی، مگنتیت
|
  • Depth estimation of the 2-D magnetic subsurface bodies using multimodel wavenumbers
    Kamal Alamdar, Abolghasem Kamkar, Rouhani, Abdul, Hamid Ansari Page 1
    An important problem in the interpretation of the magnetic data is the ability to understand the characteristics of the anomalous bodies that are the sources of the measured anomalies. A great deal can be interpreted by looking at the images of the magnetic data and its spatial derivatives. A quantitative interpretation of the magnetic data usually includes estimating dip, susceptibility, and most importantly, the depth to top of the sources of an anomalous magnetic response. Methods that exist for estimating depth work either on data recorded along a profile or data interpolated onto a regular grid. The advantage of the latter approach is that the resulting images are relatively simple and quick to produce, show regional structural patterns at the area under study, and are easily overlain on other geophysical and geological maps. However, many geophysical practitioners prefer to interpret individual profiles because finer sampling intervals generally lead to more accurate results. While this approach is considerably more laborious than using gridded data as its input, a richer understanding of the geology is resulted in this case. A variety of semiautomatic methods, based on using the derivatives of the magnetic anomalies, have been developed for the determination of causative source parameters such as boundary locations and depths. One of these techniques is the analytic signal method for magnetic anomalies initially used in its complex function form. It makes use of the Hilbert transform properties. Other methods for an automatic estimation of the source depth using profile data include the Naudy method, Werner deconvolution, Euler deconvolution, and the Phillips method. For these methods, the depth estimation procedure is applied to each point along the line. At those points where a source is detected, multiple solutions are returned, each based on a different assumed model. The interpreter must choose one of these solutions based on its understanding of geology or other complementary information from other geosciences data.In recent years, we have shown the invention of some depth-estimation methods using the local wavenumber quantity. This quantity is one of the three attributes derived from the complex analytic signal. The local wavenumber is a spatial quantity (not to be confused with the Fourier wavenumber) and is analogous to the instantaneous frequency used in the analysis of temporal series. Thurston and Smith (1997) have employed the local wavenumber to estimate the depth of 2-D thin sheets and contacts, using a priori information (typically the judgment of the interpreter) to determine which model is more appropriate. This method was subsequently generalized by introducing the concept of a multimodel wavenumber (The term multimodel applies because this quantity gives the same result disregard of the source being a horizontal cylinder, a thin sheet, or a contact). However, in the case of dipping dyke model or slipping step model, the conventional multimodel wavenumber is a combination of a bell-shaped function and terms dependent on the dimensions of the source which complicate a quantitative analysis particularly the depth estimation. To extend the applicability of this method, we must define a quantity that has a bell-shaped functional form, but independent of the source dimensions, when the source of the magnetic response is either a dipping thick dyke or a sloping finite step. In this paper, we document a further broadening of the applicability scope to include the dipping thick dykes and finite sloping steps by introducing an additional multimodel wavenumber called improved multimodel wavenumber. As in Thurston and Smith (1997) and Smith et al. (1998), we assume that the sources are two dimensional. We also present a new method to estimate the source depth using profile data as input. This method is based on the least-squares fitting of both the conventional and improved multimodel wavenumber from different geometry sources.We illustrate this technique using synthetic 2-D magnetic data from a dipping dyke model and a slipping step model on a 150-km-long line of aeromagnetic data from the Northwestern part of Anarak quadrangle yielding two thick dykes between the depths of 2800 and 3000m. Using this solution as a starting point in the iterative forward modeling exercise, the measured data were in reasonable agreement with the model.
    Keywords: Local wavenumber, multimodel wavenumber, dipping Dyke, slipping step, Anarak
  • Yahya Moradi Chaleshtori, Hamid Reza Siahkoohi Page 14
    The main purpose of exploration seismology is data gathering, data processing, and finally obtaining an interpretable image of subsurface layers. Sometimes, because of problems such as undesirable area topography, instrument defects, and environmental constraints, we have data with missing spatial samples. Reconstruction and recovery of the missing data can be carried out using interpolation and reconstruction methods. There are many reconstruction and interpolation methods. One of the most useful methods to reconstruct missing data is the auto-regressive model. This method refers to the techniques that model the evolution of a signal as a function of its past/future samples (Lau et al., 2002; Takalo et al., 2005). Also, it has a wide range of applications in signal processing including noise suppression (Canales, 1984), parametric spectral analysis (Marple, 1987), and signal interpolation and reconstruction (Sacchi and Ulrych, 1996; Porssani, 1999; Spits, 1991; Naghizade and Sacchi, 2007). The autoregressive reconstruction methods were introduced by Spitz (1991). Spitz (1991) proposed computing prediction filters (autoregressive operators) from low frequencies to predict interpolated traces at high frequencies. This methodology is applicable only if the original seismic section is regularly sampled in space. Conversely, irregularly sampled data can be reconstructed using Fourier methods. In this case, the Fourier coefficients of the irregularly sampled data are retrieved by inverting the inverse Fourier operator with a band limiting and/or a sparsity constraint (Sacchi et al., 1998; Zwartjes and Gisolf, 2006). In this paper, a reconstruction method has been introduced that combines a Fourier-based method and an auto-regressive model to reconstruct the missing data. The method includes a two-stage algorithm. The first step of the proposed algorithm involves the reconstruction of the irregularly missing spatial data on a regular grid at low frequencies using a Fourier-based algorithm called the minimum-weighted norm (Liu and Sacchi, 2004) method. Fourier reconstruction methods are well suited to reconstruct seismic data in the low-frequency (non-aliased) portion of the Fourier spectrum. The reconstruction problem is well-conditioned at low frequencies where only a few wavenumbers are required to honor the data. This makes the problem well-posed; therefore, it is quite easy to obtain a low frequency spatial reconstruction of the data. Seismic data at low frequencies are band-limited in the wavenumber domain. Due to the band-limited nature of the wavenumber spectra at low frequencies, this portion of the data can be reconstructed with high accuracy (Duijndam et al., 1999). Then, prediction filter components are computed for all frequency bands from the low-frequency portion of the reconstructed data using the auto-regressive method. Finally, these prediction filters are used to reconstruct the missing data.  The aforementioned equations show that one can predict the data samples using past/future samples (forward/backward equations). It is important to stress that the technique presented in this paper can only be used to reconstruct data that live on a regular grid with missing observations. The results of the application of the algorithm on both synthetic and real seismic data showed and confirmed the performance of the method.
    Keywords: Data reconstruction, interpolation, minimum weighted norm, auto, regressive model, prediction filters
  • Edge detection of potential field data using Theta maps
    Ali Nejati Kalateh, Amin Roshandel Kahoo Page 24
    Potential field images obtained in potential field data measurements are appropriate tools to explore mineral and hydrocarbon resources. These images consist of different anomalies which in many cases are contaminated with noise. The horizontal location of the boundaries of the potential field anomaly sources is a frequently requested job in potential field interpretations. However, the edge of the potential field sources is not clear-cut as the anomaly shape is not of enough resolution with respect to the shape of their sources. Edge enhancement in potential field data helps geologic interpretations and investigating the structural setting of a region as well as environmental and engineering applications. Edge enhancement is a procedure, applied to the potential field data to produce regions of constant field amplitude separated by sharp boundaries as an aid to the interpretation.There are many methods to enhance the edges of potential anomalies, most of which are high-pass filters based on the horizontal or vertical derivatives of the field. Vertical derivatives have been used for many years to enhance the measured gravity field. Measures of the local phases of the potential fields can be a useful aid to edge detection.An alternative approach to the conventional phase filter is the tilt angle. The tilt angle is the ratio of the first vertical derivative to the horizontal gradient and is effective in balancing the amplitudes of the different anomalies, but it is not primarily an edgedetection filter. The total horizontal derivative of the tilt angle (THDR) successfully delineates the edges of the largest amplitude anomaly, but its results for the deeper bodies are less impressive. The most interesting characteristic of all these methods is that it is possible to get quantitative results on gridded data with only a few assumptions. One of the main limitations to making a good estimate of the boundary position of a source are interference effects caused by nearby sources, especially when they are deep-seated. Comparing different filters in order to detect the local phase edges, Pilkington and Keating (2004) showed that these filters cannot enhance all of the parameters of discontinuities. The theta-map method is presented here as a high-resolution boundary-analysis technique. Theta is the angle between the analytical signal and its horizontal component. The theta map uses the analytic signal amplitude to normalize the total horizontal derivative. This filter enhances the edges of anomalies of all azimuths.We tested the efficiency of this method on both synthetic and real data. We selected two nearby sources with different depths as a synthetic model. We also tested the method against gravity data over Trompsburg complex located in the Free State Province, South Africa. Trompsburg Complex is roughly circular in shape, a layered mafic intrusion, with a diameter of nearly 50 km.Results show that the theta-map method can enhance the edge of a deeper anomaly better than the tilt-angle or the total horizontal derivative of the tilt angle methods. Also, the anomalies edge detection by the theta-map method is more accurate than the two other methods. This method has a better resolution than two the other mentioned methods.
    Keywords: Potential field, edge detection, tilt angle, total horizontal derivative of the tilt angle, theta map
  • Seyed Reza Mehrnia, Vahid Ebrahimzadeh Ardestani, Asghar Teymoorian Page 34
    A common method to determine the Bouguer density value as a random variable independent from topographic alternations has been introduced by Nettleton algorithm. During the correction processes, it may casually be accompanied by unexpected errors, for example in the folded region of Zagros, as a result of crustal thickening processes in the Southern regions of Iran. Sedimentary sequences in Charak-Namakin anticlines are known as important geological units which have been selected for prospecting oil related reservoirs by the National Iranian Oil Company. Gravimetric datasets have been acquired by this company through systematic land surveys in a total of 776 stations. The main target areas along Charak - Namakin salt domes are geographically located between 54.00 - 54.30 degrees of longitudes and 27.00 - 28.45 degrees of latitudes. Both Asmari (Oligocene) and Pabdeh - Gurpi formations (early Cenozoic) contain limestones with gray marls intercalations as a potentially valuable facies for hosting of hydrocarbore reservoirs under ascending movements of the Paleozoic formations in diapiric systems. Hormoz series (Cambrian) containing gypsum and other related evaporates play the main roles for oil trapping processes after arriving the emigrant volatiles to the permeable layers nearby brecciated structures. Determination of the optimum Bouguer density so that it is only related to Charak geological impressions is an important procedure which associates a number of gravimetric anomalies with probable oil trap locations. It means that Bouguer anomalies are comfortable geophysical quantities for density estimations according to statistical techniques. Although a linear method such as Nettleton correction can be used for density estimations, some abnormal thickening of the crust may increase in topographic disturbances and subsequently cause stochastic behaviors of the gravity values which cannot be interpreted by Euclidean geometry. Therefore, nonlinear analyses such as power law functions can be used to calculate the fractal dimensions as non-Euclid variables related to self similar peculiarities of the gravimetric values which are theoretically assumed to be spatially independent from crustal interactions with heavy masses of the lithosphere. According to Mark and Aronson, two fractal-based interpretations corresponding to gravimetric anomalous regions have been carried out by applying a variance – distance logarithmic equation in Free Air and Bouguer georeferred datasets, respectively. This research is an attempt to study the Brownian surfaces as unique area indicators to cumulative appearances of the gravimetric similarities above Charak sedimentary formations. Given the iteration processes on the log-log plots, some Bouguer anomalies have been recognized to be independent from topographic alternations in the ranges of 6.44-10.24 km distances from backgrounds. As a result, an averaged density value equal to 2.4 kgm-3 was calculated for Charak lithological occurrences by a stepwise fractal analysis of the total density assumptions (1.8-2.4 kgm- 3). The fractal result was subsequently compared with the statistical result considered to be in a range of 2.3-2.4 kgm-3 as optimum density values for the Hormozgan Region after obtaining a new ratio of Bouguer regression versus the Bouguer Poisson coefficient (R2P) among estimation processes.
    Keywords: Bouguer density, Charak, fractal, gravimetric, oil field
  • Reza Ghaedrahmati, Ali Moradzadeh, Nader Fathianpour, Soheil Porkhial Page 64
    The magnetotelluric (MT) method is one of the several electrical techniques used in geophysical explorations. This natural-source electromagnetic technique is used to obtain electrical resistivity information from the subsurface structure. The data used in this method consists of a simultaneous measurement of naturally-occurring, time-dependent magnetic field fluctuations and of the electric fields induced in the earth by the magnetic fields. At a single site on the earth’s surface, a number of recording time segments of the horizontal (Hx, Hy) and vertical (Hz) magnetic and horizontal (Ex, Ey) electric fields are recorded to obtain the spatial resistivity variation within the earth. One of the major problems in the interpretation of MT data is the effects caused by topographical features or near-surface inhomogeneities. Such small local features may have a galvanic response (due to boundary charges) that is essentially independent of the frequency within the range of an MT sounding. These small 2D or 3D inhomogeneities cause the measured electric fields to be perturbed from their regional values and a shift of the apparent resistivity curves take place vertically in a log-log scale of the apparent resistivity sounding curves. This is called the MT static shift and needs to be minimized somehow to allow an accurate interpretation of data. Due to the importance of this phenomenon, a number of studies have been devoted to understanding and correcting this problem. The electromagnetic array profiling (EMAP) is a special form of MT data acquisition to resolve the spatial aliasing effects as well as the static shifts generated in MT measurements.In the EMAP method, surface electric fields are sampled tangentially to a continuous survey traverse. Tensor impedance components along the EMAP traverse are either computed from the primary surface magnetic fields sampled at a fixed reference station or estimated from an array of magnetic stations (Figure 1). The Earth's resistivity distribution beneath the EMAP traverse is determined from these in-line tensor impedance components.For both qualitative and quantitative interpretations, the importance of MT data inversion has increased in the past few decades. Among the developed two-dimensional (2D) inversion algorithms, the Occam’s inversion and the non-linear conjugate gradient (NLCG) methods are useful algorithms for MT data modeling. The original Occam method was provided for a 1D inversion of MT data and it was then developed for the 2D case by deGroot-Hedlin and Constable in 1990. This algorithm seeks the minimum possible structure model subject to an appropriate fit to the data. The NLCG algorithm employs the non-linear conjugate gradient method directly to minimize the objective functional of the MT inverse problem. In this algorithm, the computation of the full sensitivity matrix and the complete solution for the normal equation system in the model space are avoided.The main objective of this study was to investigate the ability of Occam and NLCG inversion algorithms in an interpretation as well as 2D inverse modeling of Oklahoma EMAP data. It was also attempted to compare the results of these new inversions with those already acquired by the other different inversions. To achieve these goals, EMAP data were processed considering the noise amount and the bad data were removed and suitable data sets were defined for the inversion. For the inverse modeling, first an appropriate mesh grid for both resistivity blocks and forward computations was defined for each inversion algorithm. Then, the inversion parameters such as regularization parameter, the starting model and the target misfit were set to achieve acceptable results. Finally, the 2D NLCG and Occam inversion algorithms were applied to EMAP data to obtain geoelectrical models for the subsurface geological structures in the studied area. In addition, a set of MT data from four stations with five components of electric andmagnetic field data along a line perpendicular to the EMAP profile were investigated tointegrate with the results of the EMAP data inversions.The results of this study indicate that data processing and controlling of the inversion parameters such as: an appropriate grid, regularization parameters, the starting model and the target misfit are very important for obtaining a suitable model. Therefore, by properly setting these parameters, the capabilities of the NLCG and the Occam algorithms for inverting a large volume of data have been tested and compared to those of other inversion algorithms. Furthermore, the capabilities of EMAP and MT data to map the subsurface resistivity distribution of the geological structures have been shown.
    Keywords: 2D Inversion, MT data, static shifts, EMAP, resistivity
  • Amin Roshandel Kahoo, Ali Nejati Kalateh Page 79
    Noise is a factor that influences the reliability of the seismic data to provide a better understanding of the hydrocarbon reservoir characteristics. Coherent and random (incoherent) noises are two important types of noise that contaminate the seismic reflection data. Power-line noise falls in the coherent type of noise (Yilmaz, 2001; Sheriff and Geldart, 1995). It is a class of noise often existing in land acquisition in populated areas. It produces a characteristic 50 or 60 Hz sinusoidal noise on seismic reflection traces and covers the seismic data from reflectors. Its amplitude is time invariant, whereas the seismic data amplitude decays with time (Xia and Miller, 2000; Dingus, 2010). Coherent noise attenuation, particularly power-line attenuation, is one of the problems in seismic reflection data processing. Several methods have been introduced for elimination of power-line noise from seismic reflection data. Xia and Miller (1998 and 2000) predicted the amplitude and phase of a harmonic using the Levenberg-Marquart method and subtracted the harmonic constructed by the predicted amplitude and phase from the seismic trace to attenuate the power-line noise.
    Keywords: Power, line noise, noise attenuation, coherent noise, notch filter, minimum variance filter
  • Seyed Majid Mirrokni, Ali Reza Mohebalhojeh, Farhang Ahmadi, Givi Page 89
    The role of stratospheric circulations in large-scale and intense anomalies over a largepart of Asia including Iran in Winters of 2007–2008 and 2009–2010 was investigated using NCEP/NCAR reanalysis data available four times a day and in daily and monthly averages for 17 pressure levels as well as for isentropic and sigma levels. The spatial resolution of the data set was 2.5×2.5 in the longitudinal and latitudinal directions which provided adequate resolution to study large-scale dynamical processes.Anomalies in the wind and temperature fields induced by the interaction of verticallypropagating planetary waves with a stratospheric mean flow first appear in the winter stratosphere and subsequently with downward propagation, they affect the surface climate. The time series of each meteorological quantity contains a set of variability modes. Using Empirical Orthogonal Functions (EOFs), it is possible to extract and determine the contribution of each variability mode in the time series of a given meteorological quantity. The highest variability is contained in the first mode of variability, also called the leading mode. The vertical and horizontal structures of the resulting spatial patterns illustrate the internal variability of each atmospheric layer, telleconnection patterns as well as the interactions of atmospheric layers. Using EOFs, the stratosphere–troposphere interactions in the two above winters were investigated. Comparing the two winters, it was found that the variance of the leading mode of the 10- hPa gepotential height was larger in Winter 2007–2008, indicating a stronger polar vortex than that in Winter 2009-2010. With regard to this situation at various levels, it was shown that the cold winter in the region in Winter 2007–2008 coincided with the existence of a strong polar vortex and minor sudden stratospheric warming (SSW). In Winter 2009–2010, the reverse is true. That is, the warm winter in the region coincided with the existence of a weak polar vortex, early SSW and the displacement of the dipolar pattern of a temperature anomaly to higher latitudes.As an important tool in understanding the time evolving flows, Eulerian diagnostics were employed to corroborate the results obtained using the statistical method. The results for a temperature anomaly at 850 hPa were consistent with surface observations in which the winters 2007–2008 and 2009-2010 were, respectively, cold and warm over theregion. The changes in the temperature pattern in these two winters were believed to be related to the effects of a stratospheric circulation in the surface climate. The SSW events were classified according to the definition provided by the World Meteorological Organization. The SSW events were classified and the stratosphere–troposphere interaction was investigated using Eulerian diagnostics. Consistent with the statistical analysis, the time evolution of Eulerian diagnostics illustrates marked differences in the behavior of a polar vortex in the two winters.The results obtained using EOFs and Eulerian diagnostics showed that in Winter 2007– 2008 the occurrence of a major or minor sudden stratospheric warming was associated with the displacement of a dipolar pattern of temperature to lower (higher) latitudes and thus a prolonged cold anomaly over Iran. The opposite situation was found to prevail in Winter 2009–2010.
    Keywords: Troposphere–stratosphere interaction, Eulerian diagnostics, empirical orthogonal functions, leading mode, polar vortex, cold winter
  • Maryam Aslanifar, Vahid Ebrahimzade Ardestani Page 105
    The downward continuation of the gravity data is one of the main issues of a geophysical data interpretation. Considering that the downward continuation of the gravity data is calculated on a plane under the ground and close to an anomaly, this gravity value could show the specifications of the anomaly better than the gravity anomaly on the ground. Factors such as shape, size and depth of the anomaly are determined by calculating the downward continuation of the gravity data.The upward and downward continuation is usually calculated by the Fourier transform (FT) method. The upward continuation calculated from FT method is stable. In this method, the upward continuation is calculated in a horizontal plane above the ground level. The higher frequencies (the shorter wavelengths) of the gravity data become damped in the calculation of the upward continuation. The amount of the downward continuation calculated by the FT method is unstable. The downward continuation is estimated in a horizontal plane lower than the ground level. The higher frequencies (the shorter wavelengths) of the gravity data are strengthened in the calculation of the downward continuation to a large extent which is a function of the downward continuation depth and the sampling interval. When the depth is several times bigger than the sampling interval, the downward continuation of the FT method is divergent, because the exponential function is positive; therefore, the noise will be dominated and the anomaly shape will disappear. Any existing and perhaps non-obvious errors in the measured data in the calculated field are very big and have unrealistic changes. The iterative method for calculating the downward continuation is a new one. In this method, using a change of variable, the amount of the gravity on the ground level is attributed to the desired horizontal plane −on which the downward continuation of the gravity data is calculated− as an initial value of the gravity. The upward continuation of the initial value of the gravity data on the ground level is calculated (with a height equal to the depth of the downward continuation). The difference between the initial value of the gravity data on the desired horizontal plane and the amount of the upward continuation is added to the initial value. These calculations are placed in a loop and the calculations of the loop are stopped when a predetermined accuracy is reached. Usually, the optimum downward continuation is gained after 100 to 200 iterations. The final value is placed as the amount of the downward continuation of the gravity data. This method is implemented in MATLAB and is run for the synthetic, synthetic with noise and real models. Considering that the amounts of the gravity data changes for the synthetic models and synthetic with noise models are low, the amount of the calculated gravity from the iterative method is stable. The limits of anomaly in the downward continuation of the studied models are preserved in all the forms, and the amount of the gravity near the horizontal planes of anomaly is greater than the gravity value at the ground level.
    Keywords: Downward continuation, stable, gravity data, iterative method, horizontal plane
  • Amir Gholamipour Sisakhti, Mohamad Reza Haidarian Shahri, Khosrow Ebrahimi Nasrabadi, Gholam Page 116
    The Saghand Iron Ore is a type of magnesian skarn deposit formed by the intrusion of granitic igneous bodies of Jurassic into carbonate rocks. Four lithological units of micaschist, gneiss, skarn and limestone are present in the area. On the basis of the RTP magnetic map, three magnetic anomalies A, B and C are present in the area. The first vertical gradient map shows that anomaly A has shallow and near surface sources as part of it correlates with iron outcrop. Anomaly B which correlates with the alluvium shows also shallow sources in the western portion on the first vertical gradient map but the eastern portion of anomaly B has no responses. Anomaly C which also correlates with the alluvium, has no responses on the vertical gradient map. Considering the upward continued map, it is inferred that only anomaly A and the western portion of anomaly B have deep responses and their sources are possibly iron mineralization at depth. Due to the high magnetic susceptibility of magnetite in iron ores relative to the other rock units, the best causative source of the western portion of anomaly B which correlates with the alluvium can be magnetite in the covered iron bodies. Two anomalies are present in gravity data. Considering the first vertical and continued maps, the first priority of drilling is recognized over anomaly A which correlates with an iron ore outcrop. The second priority of drilling is identified over the western portion of anomaly B which correlates with the alluvium. This drilling results are consistent with the responses of the first vertical gradient and continued maps and confirm them.
    Keywords: Saghand iron ore, anomaly, magnetic survey, gravity survey, magnetite