فهرست مطالب

  • سال پنجم شماره 1 (پیاپی 9، بهار و تابستان 1398)
  • تاریخ انتشار: 1398/01/01
  • تعداد عناوین: 12
|
  • فاطمه شیروانی شیری*، علی غلامی صفحات 1-14
    تخمین و تصحیح فاز باقی مانده در یک مقطع لرزه ای برانبارش شده امری ضروری و مهم است. تشخیص فاز ناپایای باقی مانده در داده ها بدون استفاده از اطلاعات نگاره های چاه با استفاده از روش های آماری قابل انجام است. روش بیشینه سازی کشیدگی با چرخش فاز ثابت از مشهورترین روش های آماری بعد از برانبارش جهت تخمین فاز ناپایا در داده های لرزه ای است. معیار کشیدگی به عنوان کومولانت مرتبه چهار، باعث حفظ اطلاعات فازی موجک می شود؛ که این امر نقش مهم این معیار را در مراحل تفسیر داده لرزه ای نشان می دهد. در این مقاله با تغییر مسئله بیشینه سازی کشیدگی منظم شده برای تخمین فاز ناپایا که توسط van der Baan and Fomel در سال 2009 ارائه شده، نشان داده خواهد شد؛ که حجم محاسبات در عین حفظ کیفیت نتایج، به طور قابل ملاحظه ای کاهش خواهد یافت. روش پیشنهادی به دلیل حجم محاسباتی کمتر و همچنین تعداد پارامترهای آزاد کمتر نسبت به روش مشابه منظم سازی کاراتر بوده و لذا برای آنالیز داده های بزرگ مقیاس راحت تر قابل استفاده است. تاثیر روش ارائه شده در شناسایی و تصحیح فاز ناپایای باقی مانده در سیگنال های لرزه‎ای بر روی مثال های مصنوعی و واقعی نشان داده شده است.
    کلیدواژگان: تخمین فاز ناپایا، تحلیل آماری، کشیدگی، چرخش فاز ثابت، تابع منظم ساز تیخونوف
  • زهرا باقری آشنا*، سید وحید ابراهیم زاده اردستانی، علی دهقانی صفحات 15-28
    ویژگی های خاص زمین شناسی و اقتصادی منطقه کوهزایی زاگرس محققان بسیاری را در دهه های اخیر متوجه خود ساخته است. با وجود پژوهش های صورت گرفته، همواره نیاز به مطالعات بیشتر احساس می شود. از این رو در این تحقیق بر آنیم تا به بررسی ساختار پوسته و سنگ کره با استفاده از مدل سازی تلفیقی داده های گرانی زمینی با دقت بالا و داده های ژئوئید، به منظور کاهش عدم قطعیت جواب های حاصل از مدل سازی میدان های پتانسیل، در این منطقه بپردازیم. منطقه مورد مطالعه از حوضه خلیج فارس آغاز و با عبور از زاگرس چین و گسل خورده، پهنه سنندج-سیرجان و کمان ماگمایی ارومیه- دختر در جنوب ایران مرکزی خاتمه می یابد. بررسی ساختار پوسته و سنگ کره با استفاده از مدل سازی مستقیم ترکیبی داده های گرانی و ژئوئید انجام می گیرد. در این راستا و با هدف افزایش قیود ساختاری مدل، از تحلیل نقشه ادامه فراسوی داده های شدت مغناطیس کل، به-منظور مقید سازی عمق بیشینه سنگ بستر، از نتایج تفسیر نقشه بی هنجاری سرعت موج S به عنوان تقریب اولیه ای از هندسه گوشته فوقانی و همچنین از مطالعات زمین شناسی به طور گسترده استفاده خواهد شد. بر اساس نتایج حاصل از مدل سازی، کمینه ضخامت پوسته با مقدار متوسط 40 کیلومتر در زیر حوضه خلیج فارس و بخش جنوبی زاگرس چین خورده واقع شده است که با حرکت به سمت شمال شرق به تدریج افزایش یافته و در زیر گسل اصلی زاگرس به مقدار بیشینه 66 کیلومتر می رسد. با عبور از پهنه سنندج-سیرجان عمق موهو مجددا کاهش یافته و در زیر حوضه ایران مرکزی به 42 کیلومتر می رسد. همچنین تغییرات ضخامت سنگ کره با نازک شدگی در زیر پهنه سنندج- سیرجان همراه بوده و از 220 کیلومتر در زیر صفحه عربستان تا 100 کیلومتر در زیر صفحه ایران مرکزی متغییر است. این نازک شدگی می تواند تاییدی بر فرضیه جداییش بخشی از سنگ کره در حال فرورانش صفحه عربستان به زیر صفحه ایران در طی مراحلی از تشکیل کوهزایی زاگرس باشد.
    کلیدواژگان: زاگرس، ساختار پوسته و سنگ کره، مدلسازی مستقیم، داده های گرانی، داده های ژئوئید
  • امین ابراهیمی بردر، بهروز اسکوئی*، علی رضا گودرزی صفحات 29-55
    ش رادار زمین نفوذ (GPR) به منزله یک روش غیر مخرب به منظور آشکارسازی اهداف زیرسطحی واقع در عمق کم، بر اساس ارسال امواج الکترو مغناطیسی به درون زمین و ثبت بازتابهای دریافت شده از امواج ارسالی، مورداستفاده قرار می گیرد. ثبت نوفه در برداشت داده های GPR اجتناب ناپذیر است. داده های رادار حاوی انواع گوناگونی از نوفه ها میباشند. نوفه اتفاقی در زمان داده برداری کیفیت داده ها را تحت تاثیر قرار می دهد. در این مقاله از دو روش تغییرات کلی و تنکی گروهی جهت تضعیف نوفه از دادههای رادار در فضای موجک اتساع گویا و فضای موجک اتساع گویا دوشاخه استفاده میشود. روش تغییرات کلی یک روش برای تضعیف نوفه به روش وارون سازی می باشد. نوع توسعه یافته آن تنکی گروهی تغییرات کلی GSTV نامیده می شود. روش تغییرات کلی و روش تنکی-گروهی تغییرات-کلی در تضعیف نوفه بسیار موثر است. بدین منظور در ابتدا داده رادار به حوزه موجک اتساع گویا دو شاخه DTRADWT و حوزه موجک اتساع گویا (RADWT) برده شده و و تضعیف نوفه توسط دو روش وارون سازی تغییرات-کلی و وارون سازی تنکی-گروهی تغییرات-کلی بر روی دو داده مصنوعی و حقیقی انجام گردید. در داده مصنوعی علاوه بر بررسی کیفی، طیف توان برای سیگنال حقیقی ، سیگنال نوفه ی شده و سیگنال تضعیف نوفه شده انجام گردید. در نهایت تضعیف نوفه در این دو روش در هر دو فضا با یکدیگر مقایسه شده اند . نتایج نشان می دهد حوزه موجک در تضعیف نوفه موثرتر از فضای زمان است. همچنین روش نوفه زدایی FX به عنوان یک روش استاندارد برای مقایسه با این روش ها انجام گردید. نتایج نشان می دهد GSTV در تضعیف نوفه موثرتر و قوی تر از TV عمل نموده است. همچنین مشخص گردید که فضای DTRADWT با ارائه تجزیه زمان-فرکانس موثر مبتنی بر ضرایب گویا توانسته است در پیاده سازی روش های مطرح شده، نوفه زدایی و ارتقاء قابل توجهی ایجاد نماید.
    کلیدواژگان: رادار زمین نفوذ، نوفه اتفاقی، تبدیل موجک اتساع گوی، تغییرات کل، تنکی-گروهی
  • پیوند حیدرنژاد صنمی*، علی نجاتی کلاته صفحات 57-72
    استان آذربایجان شرقی از نظر زمین گرمایی بسیار حائز اهمیت است. چشمه های آب گرم زیادی در این منطقه وجود دارد و از مشخصه های زمین شناسی مهم این منطقه وجود قله ی آتشفشانی سهند و گسل تبریز است. آنالیز طیفی داده های مغناطیس هوابرد جهت تخمین عمق کوری می تواند اطلاعات ارزشمندی از توزیع دمایی ناحیه ای و تمرکز انرژی زمین گرمایی در سطح فراهم نماید. ایده ی استفاده از داده های مغناطیس هوابرد به منظور تخمین عمق کوری امری نو نیست و تا کنون تحقیقات زیادی در این زمینه صورت پذیرفته است. در این تحقیق هدف ما بررسی و مقایسه روش های معمول تخمین عمق کوری با روش طیف - دی فرکتال شده است. تخمین پارامتر فرکتالی، عمق بالا ی بی هنجاری های مغناطیسی ،عمق کف بی هنجاری های مغناطیسی (عمق کوری)، گرادیان حرارتی و جریان حرارتی در منطقه ی مورد مطالعه از اهداف این تحقیق است. برای تحقق این مهم از روش جدیدی تحت عنوان آنالیز طیف دی-فرکتال شده ی توان بهره خواهیم برد. با استفاده از روش طیف دی-فرکتال شده توزیع مغناطیدگی در سنگ های پوسته فرکتالی در نظر گرفته می شود و امر سبب بهبود تخمین عمق بالا و کف بی هنجاری های مغناطیسی در سنگ های پوسته می شود. در این روش با در نظر گرفتن ارتباط ریاضی بین طیف توان مغناطیسی تصادفی و طیف توان مشاهده ای، اثر فرکتالی را از روی طیف توان مشاهده ای حذف کرده و سپس با استفاده از روش مدل سازی پیشرو به تخمین عمق بالا و کف بی هنجاری های مغناطیسی طیف توان دی- فرکتال شده خواهیم پرداخت. این روش بر روی داده های مغناطیس هوابرد استان آذربایجان شرقی- ایران اعمال شد و عمق بالا بین 5/2 و 8/3 کیلومتر، عمق کف مابین 8/9 و 8/16 کیلومتر و پارامتر فرکتالی مابین 6/1 تا 3 تخمین زده شد. سپس با استفاده از این نتایج نقشه های گرادیان و جریان حرارتی در منطقه تهیه و مناطق مستعد منابع زمین گرمایی شناسایی معرفی شد.
    کلیدواژگان: پارامتر فرکتالی، مغناطیس هوابرد، منابع زمین گرمایی، طیف توان، آذربایجان شرقی
  • ابوالقاسم کامکار روحانی، سید رضا قوامی ریابی، امین روشن دل کاهو، سمیه زمان پور* صفحات 73-84
    توزیع فضایی پارامترهای پتروفیزیکی در مخازن، یکی از مهم ترین عوامل موثر در توصیف مشخصات مخزن است. واحدهای جریان بخش پیوسته ای از یک حجم خاص مخزن است؛ که در آن خواص زمین شناسی و پتروفیزیکی یکسان هستند. بر این اساس، پیش بینی دقیق واحدهای جریان یک کار عمده برای رسیدن به توصیف پتروفیزیکی قابل اعتماد از یک مخزن است. معمولا در مخازن ارتباط ساده ای بین تخلخل و تراوایی وجود ندارد، بنابراین تعیین واحدهای جریان هیدرولیکی روشی مناسب برای بررسی و ارزیابی رابطه تخلخل- تراوایی در مخازن هیدروکربوری است. مفهوم واحدهای هیدرولیکی برای تقسیم بندی مخزن به واحدهای پتروفیزیکی مجزا استفاده می شود. هر واحد جریان دارای یک مقدار شاخص زون جریان منحصر به فرد است. در این مطالعه به منظور ارائه رابطه تخلخل- تراوایی، ابتدا واحدهای جریان هیدرولیکی با روش های شاخص زون جریان و رخساره های الکتریکی در سه چاه میدان مورد مطالعه، تعیین شد. سپس رابطه میان تخلخل و تراوایی در هریک از این واحدها مورد بررسی قرار گرفت. نتایج به دست آمده نشان دهنده تعداد یکسان واحدهای جریان هیدرولیکی در هر دو روش می باشند. با این حال تعداد واحدهای جریان هیدرولیکی در یک چاه متفاوت از دو چاه دیگر به دست آمده است. نتایج حاصل از بررسی رابطه تخلخل- تراوایی در چاه های مورد مطالعه با استفاده از دو روش فوق حاکی از ضریب همبستگی بالاتر بین تخلخل و تراوایی در روش شاخص زون جریان نسبت به روش رخساره های الکتریکی بوده است. با این حال، تعیین واحدهای جریان هیدرولیکی در روش رخساره های الکتریکی حتی در حالتی که داده های تخلخل و تراوایی در دسترس نیستند، به کمک نگارهای چاه پیمایی امکان پذیر بوده است.
    کلیدواژگان: پارامترهای پتروفیزیکی، تراوایی، واحدهای جریان هیدرولیکی، شاخص زون جریان، رخساره های الکتریکی
  • سیامند فتحی بایزیدآباد، ابوالقاسم کامکار روحانی، اندیشه علی مرادی، علی رضا عرب امیری* صفحات 85-106
    پیدایش و گسترش ابزارهای پیشرفته سنجش ازدور و ژئوفیزیک در زمینه اکتشاف منابع معدنی در دهه های اخیر، ناشی از اهمیت این صنعت است. در این پژوهش، از تصاویر سنجنده استر (ASTER) و داده های ژئوالکتریکبه منظور پی جویی ماده معدنی طلا به طور غیرمستقیم، پهنه بندی نواحی دگرسانی و تحلیل سیستم حاکم بر کانه زایی منطقه و شناسایی بخش های پنهان کانی زایی در محدوده معدن طلای زرشوران در شمال شهرستان تکاب در استان آذربایجان غربی، استفاده شد. به این منظور از انواع روش های پردازش تصویر مانند نسبت گیری باندها (Band Ratio)، تحلیل مولفه های اصلی (PCA)، روش پیش بینی خطی باند (LS-Fit)، روش نقشه بردار زاویه طیفی (SAM) و روش طبقه بندی بیشترین شباهت (ML) روی تصاویر ASTER، به منظور پهنه بندی نواحی دگرسانی استفاده شد. همچنین عملیات برداشت داده های IP و مقاومت ویژه، در طول 17 پروفیل موازی با آرایش قطبی-دوقطبی (Pole-dipole) برای شناسایی محل های پنهان کانی سازی طلا در عمق در محدوده انجام شد. داده های برداشتی با مدل سازی معکوس دوبعدی و سه بعدی هموار، مدل سازی شدند؛ که نتایج حاصل از آن ها به کمک اطلاعات زمین شناسی و حفاری های انجام شده در منطقه منجر به شناسایی زون های کانی سازی طلا و تعیین وضعیت کانسار به صورت سه بعدی شد. به طورکلی و با توجه به بررسی های صحرایی و همچنین مقایسه نتایج حفاری تعدادی از گمانه های اکتشافی و حدود تغییرات مقاومت ویژه و شارژپذیری در مقاطع می توان گفت که شدت شارژپذیری تقریبا در تمامی پروفیل ها قابل قبول بوده و مطالعات ژئوفیزیک به روش قطبش القایی و مقاومت ویژه در این محدوده واحدهای زمین شناسی موجود را کامل از هم تفکیک کرده و اطلاعات مفیدی از شرایط عمقی محدوده در اختیار گذاشته است؛ که در مطالعات اکتشافی آینده بسیار موثر خواهد بود. در حالت کلی زون کانی سازی موجود در قسمت میانی محدوده گسترده شده و تا آخرین پروفیل برداشت شده ادامه پیدا کرده است؛ که نواحی با بارپذیری بالا در بین واحدهای آهکی مستعد مطالعات تفصیلی تر هستند. درنهایت نقاط بهینه جهت حفاری اکتشافی پیشنهاد گردید. نتایج حاصل از این پژوهش نشان داد که استفاده همزمان از تصاویر دورسنجی و ژئوفیزیک می تواند به بهبود نتایج حاصل کمک کند. به همین دلیل استفاده از روش های یادشده برای دسترسی به نتایج مناسب تر و با دقت بیشتر و برای انطباق نتایج داده ها باهم ضروری به نظر می رسد.
    کلیدواژگان: استر، نقشه بردار زاویه طیفی، پیش بینی خطی باند، قطبش القایی، مقاومت ویژه، طلای زرشوران
  • عطا اسحق زاده*، علیرضا حاجیان صفحات 107-125
    ادامه فروسوی میدان پتانسیل نقش مهمی در تفسیر میدان های گرانی و مغناطیس دارد. بخاطر ناپایداری ذاتی ادامه فروسو، روش های زیادی جهت ادامه فروسو میدان های پتانسیل با پایداری و دقت بالا ارائه شده است. روش تنظیم تیخونوف یکی از این روش های قدرتمند می باشد. این روش بر پایه اقتباس فیلتر پایین گذر در حوضه طیفی فوریه بوسیله حل مسئله کمینه سازی می باشد. در این مقاله، ما یک عملگر تنظیم بهبود یافته برای ادامه فروسوی داده های میدان پتانسیل معرفی می نماییم. نخست، ما یک عدد موج ویژه به نام عدد موج قطع تعریف می نماییم تا طیف میدان پتانسیل را به دو بخش سیگنال و نوفه بر اساس طیف توان متوسط شعاعی داده های میدان پتانسیل، تقسیم نماید. سپس، از عملگر ادامه فروسوی مرسوم برای ادامه فروسوی سیگنال و از عملگر تنظیم تیخونوف برای تضعیف و حذف نوفه استفاده می شود. بعلاوه، پارامترهای عملگر تنظیم بهبود یافته که اهمیت فیزیکی واضحی در فرآیند ادامه فروسو دارند، بوسیله عدد موج قطع تعریف می شود. جهت تعیین مقدار پارامتر α که در عملگر تنظیم تیخونوف استفاده می شود، نیاز است تا نرم c میدان پتانسیل محاسبه گردد. عملگر بهبود یافته نه تنها می تواند اثر نوفه با عدد موج بالا را حذف نماید، در عین حال از تضعیف سیگنال نیز جلوگیری می کند. در این مقاله ادامه فروسوی دو میدان گرانی مصنوعی، با و بدون نوفه تصادفی اضافه شده، و همچنین ادامه فروسوی میدان گرانی واقعی مربوط به کوه نمک واقع در استان قم، با هر دو عملگر تنظیم تیخونوف و عملگر تنظیم بهبود یافته مورد تحلیل و مقایسه قرار می گیرند. نتایج نشان می دهند که دقت عملگر تنظیم بهبود یافته از عملگر تنظیم تیخونوف بالاتر می باشد.
    کلیدواژگان: ادامه فروسو، تنظیم تیخونوف، عدد موج قطع، عملگر تنظیم بهبود یافته، نرم c
  • وحید زارعی، رسول حمیدزاده مقدم* صفحات 127-136
    یکی از اهداف مهم در تفسیر داده های میدان مغناطیسی تعیین موقعیت افقی توده های مسبب آنومالی می باشد بدین منظور روش های مختلفی ارائه شده است که بر پایه گرادیان هایی از میدان پتانسیل بنا شده اند. در این پژوهش از روش های مقادیر ویژه جهت تعیین مرز توده های مغناطیسی استفاده شد این روش ها بر روی داده های مغناطیسی مدل مصنوعی با و بدون نویز اعمال گردید نتایج حاکی از کارایی روش بزرگترین مقدار ویژه و عدم کارایی روش دترمینان و کوچکترین مقدار ویژه در تعیین مرز توده های مغناطیسی است. مقایسه روش بزرگترین مقدار ویژه با دیگر روش های تعیین مرز بیانگر دقت بسیار بالای آن در تعیین مرز توده و عدم تولید لبه کاذب می باشد همچنین روش بزرگترین مقدار ویژه نسبت به روش زاویه تیلت از کارآیی بسیار بالایی در تفکیک توده های عمیق برخوردار است. روش بزرگترین مقدار ویژه همراه با روش های مشتق قائم مرتبه اول و دوم، سیگنال-تحلیلی و زاویه تیلت جهت تفسیر داده های مغناطیسی منطقه آستمال، ورزقان، آذربایجان شرقی به کار برده شد نتایج بیانگر کارآیی بسیار خوب روش بزرگترین مقدار ویژه در تعیین مرز توده های مگنتیتی، موقعیت گسل ها و دایک های منطقه می باشد. تلفیق نتایج حاصل از روش های مغناطیسی با داده های زمین شناسی منطقه حاکی از نفوذ سیالات کانی ساز در داخل گسل ها و و شکستگی های منطقه بوده که در این بین دایک های موجود در منطقه نقش عمده ای در تمرکز و انباشتگی سیالات کانی ساز جهت تشکیل آنومالی A داشته اند همچنین نتایج نشان می دهد که سه آنومالی A، B و C یک پارچه نبوده بلکه هر کدام از آنها به صورت مستقل در داخل شکستگی ها و گسل های منطقه تشکیل شده اند.
    کلیدواژگان: مغناطیس سنجی، تعیین موقعیت افقی توده ها، بزرگترین مقدار ویژه
  • کاوه کیانفر*، ابوالفضل رنجبرنوعی، بهروز رضایی صفحات 137-146
    مدل های ژئومغناطیس توصیفی جهان شمول از میدان مغناطیسی زمین را برای مقاصد علمی و کاربردی عرضه می نمایند. لیکن ازآنجایی که میدان ژئومغناطیس با گذشت زمان تغییر می نماید، دستیابی به مدلی که بتواند مقادیر میدان را در بازه های زمانی مختلف محاسبه نماید امری ضروری و بسیار پیچیده است. بدین منظور طی چند دهه گذشته تلاش های بسیاری برای ایجاد یک مدل جامع ژئومغناطیس با استفاده از ادغام داده های جمع آوری شده در دوره های زمانی مختلف صورت گرفته است. بررسی های زمانی و مکانی این داده ها نشان گر آن است که کلیه مولفه های میدان واقعی در بازه های زمانی معین همواره دارای یک مقدار متوسط می باشند که مقادیر لحظه ای حول آن نوسان می نماید. این نوسانات ناشی از برخی عوامل خارجی موثر بر میدان ژئومغناطیس می باشند که معمولا در مدل های مرجع میدان مغناطیسی زمین به دلیل دیدگاه جهانی چندان مورد توجه قرار نمی گیرد. لذا هدف از این مقاله بررسی نوسانات فرکانس بالای میدان مغناطیسی زمین و تخمین مولفه های موثر بر آن است. برای این منظور یک مدل ریاضی نوسانات میدان مغناطیسی ناشی از عوامل خارجی نظیر (فعالیت خورشیدی (SA)، دوره ماه (LA)، زمان محلی (LT) و روز سال (DOY)) مشتمل بر 270 پارامتر پیشنهاد شده و سپس با استفاده از مشاهدات طولانی مدت رصدخانه های میدان مغناطیسی و روش حداقل مربعات خطا به تخمین نوسانات فرکانس بالای میدان ژئومغناطیس پرداخته شده است. مقایسه مشاهدات واقعی رصد خانه ها با نتایج ناشی از تلفیق مدل مرجع و مدل محلی پیشنهادی این مقاله بیانگر افزایش 90 درصدی دقت محلی در مدل سازی میدان مغناطیسی زمین است. از سویی دیگر محاسبه مدل محلی در رصدخانه های مختلف و اعمال ضرایب تخمینی هر رصدخانه به رصدخانه دیگر نشان داد که مدل تغییرات محلی میدان مغناطیسی زمین برای عرض های جغرافیایی مختلف (در یک طول جغرافیایی) و همچنین در طول های جغرافیایی مختلف (در یک عرض جغرافیایی) متفاوت است. لذا تعیین ضرایب این مدل تنها به صورت محلی امکان پذیر بوده و با تغییر مختصات جغرافیای نسبت به مختصات محل رصدخانه از تاثیر آن کاسته می شود.
    کلیدواژگان: میدان مغناطیسی زمین، حداقل مربعات، مدل سازی، نوسانات روزانه میدان مغناطیسی زمین
  • محمد خدائی اربط، محمد امامی نیری* صفحات 147-157
    پیش بینی عملکرد و توسعه ی هر چه دقیق تر مخازن نفتی، در گرو داشتن اطلاعات کافی از خواص آنها است. امروزه سعی می-شود با سنجش برخی خواص که اندازه گیری مستقیم آنها آسان تر، کم هزینه تر و دقیق تر است و سپس به کارگیری روش های غیرمستقیم، فرآیند بهینه در جمع آوری داده های خواص مخزن پیموده و همزمان از عدم قطعیت ها کاسته شود. از روش های غیر مستقیم رایج می توان به روابط تجربی و الگوریتم های بهینه سازی اشاره کرد که استفاده از مورد اخیر به سرعت در حال گسترش است. در این پژوهش، روش استفاده از الگوریتم جدید و قدرتمند کلونی مصنوعی زنبور عسل در تخمین خواص فیزیک سنگی مخازن هیدروکربوری، با به کارگیری آن برای تخمین سرعت امواج برشی، از داده های برخی نگارهای پتروفیزیکی در دو مخزن ماسه سنگی و کربناته، تبیین و دقت نتایج با تخمین های حاصل از روابط فیزیک سنگی گرینبرگ-کاستاگنا مقایسه شده است. از بین نگارهای ثبت شده، تخلخل نوترونی، چگالی کپه ای و سرعت موج تراکمی انتخاب و چند جمله ای چندپارامتری مرتبه ی اول برای تخمین کمیت مورد نظر با استفاده از این نگارها برگزیده شد. سپس در هر مورد مطالعه، یک دسته از داده ها برای آموزش الگوریتم و دسته ی دیگر برای ارزیابی عملکرد آن به کار گرفته شد. در هر دو مورد، الگوریتم فوق پاسخ های بهتری به دست داده-است. این نتایج نشان می دهد، در صورت نبود داده های کمیت مذکور در چاه هایی با لیتولوژی مشابه، می توان از این الگوریتم برای تخمین مقدار این پارامتر استفاده نمود.
    کلیدواژگان: فیزیک سنگ، الگوریتم کلونی مصنوعی زنبور عسل، سرعت موج برشی، رابطه ی گرینبرگ-کاستاگنا، داده های پتروفیزیکی
  • محمد حسینی، محمدعلی ریاحی* صفحات 159-174
    در این مقاله از روش های کدگذاری تنک و تعلیم لغت نامه به منظور ایجاد مدل تقریب تنک از یک مدل اصلی استفاده شده است. ایجاد مدل تقریب تنک از یک مدل اصلی شامل دو مرحله است؛ کدگذاری تنک و تعلیم لغت نامه. در کدگذاری تنک در هر تکرار با انتخاب مناسب ترین متغیر و اضافه نمودن آن به مجموعه متغیرهای بکار برده شده، مدل رگرسیون بهینه می شود. لغت نامه در واقع ماتریسی است که بر اساس آن، مدل ها کدگذاری می شوند. برای ایجاد ماتریس لغت نامه مجموعه ای از مدل-های قابل قبول از یک خاصیت را به عنوان مجموعه تعلیم در نظر می گیرند و مراحل کدگذاری تنک و تعلیم لغت نامه به صورت متناوب روی این مجموعه تعلیم انجام می گیرد. در هر تناوب لغت نامه بهینه تر می شود. مجموعه تعلیم را می توان با روش های زمین آمار چند نقطه ای و بر اساس بهترین مدل های موجود از آن خاصیت ایجاد کرد. در این مقاله، از روش زمین آمار چند نقطه-ای DisPat برای ایجاد تحقیق های مورد نیاز در مجموعه آموزشی استفاده شده است. روش ILS-DLA به منظور تعلیم لغت-نامه و روش LARS به منظور کدگذاری تنک به کار برده شده اند. روش ILS-DLA فرآیند وارون سازی در تعلیم لغت نامه را بر اساس ساختار داخلی لغت نامه و با بلوک کردن لغت نامه به زیر-ماتریس های کوچکتر انجام می دهد. اساس روش LARS همان رگرسیون خطی است ولی سعی می کند به جای استفاده از همه متغیرها، تعداد مناسبی از آنها را انتخاب و در رگرسیون استفاده کند. بر اساس آزمایش های انجام شده مدل تقریب تنک نهایی به احتمال 90 درصد نسبت به 90 درصد از مدل های موجود در مجموعه آموزشی به مدل اصلی نزدیک تر است. از مدل تقریب تنک می توان در مدل سازی و شناسایی خواص مخزن به عنوان نماینده ای از مدل اصلی و به عنوان حد پایین در انتخاب مجموعه مدل های نزدیک به مدل اصلی استفاده کرد.
    کلیدواژگان: تقریب تنک، تعلیم لغت نامه، کدگذاری تنک، زمین آمار چند نقطه ای، شناسایی خواص مخزن
  • نجمیه محمدی، حبیب رحیمی*، علی غلامی صفحات 175-192
    توموگرافی امواج سطحی یک روش کارآمد برای تخمین تغییرات جانبی سرعت فاز و گروه می باشد. از این رو، روش های متنوعی برای دست یابی به این هدف به کار گرفته شده است. در این مطالعه ما با استفاده از موقعیت داده های واقعی، شامل سرعت فاز امواج ریلی زلزله های دورلرز ثبت شده در ایستگاه های باند پهن موجود در ایران به بررسی نتایج حاصل از توموگرافی یانوسکایا و دیتمار (1990) و روش وارون سازی تیخونوف مرتبه اول می پردازیم. در ابتدا با استفاده از مدل مصنوعی آزمایش شطرنجی با فواصل شبکه بندی متفاوت، توانمندی این دو روش در بازیابی مدل و قدرت تفکیک جانبی آن ها در دو حالت عدم وجود نوفه و 3% نوفه تصادفی اضافه شده به داده تخمین زده می شود. در نهایت با استفاده از داده های واقعی، نتایج توموگرافی سرعت فاز حاصل از هر دو روش برای دوره تناوب 30 ثانیه به دست می آید. هدف اصلی این مطالعه نشان دادن اثر استفاده از روش های وارون سازی مختلف در بازیابی نتایج وارون سازی می باشد. توموگرافی امواج سطحی یک روش کارآمد برای تخمین تغییرات جانبی سرعت فاز و گروه می باشد. از این رو، روش های متنوعی برای دست یابی به این هدف به کار گرفته شده است. در این مطالعه ما با استفاده از موقعیت داده های واقعی، شامل سرعت فاز امواج ریلی زلزله های دورلرز ثبت شده در ایستگاه های باند پهن موجود در ایران به بررسی نتایج حاصل از توموگرافی یانوسکایا و دیتمار (1990) و روش وارون سازی تیخونوف مرتبه اول می پردازیم. در ابتدا با استفاده از مدل مصنوعی آزمایش شطرنجی با فواصل شبکه بندی متفاوت، توانمندی این دو روش در بازیابی مدل و قدرت تفکیک جانبی آن ها در دو حالت عدم وجود نوفه و 3% نوفه تصادفی اضافه شده به داده تخمین زده می شود. در نهایت با استفاده از داده های واقعی، نتایج توموگرافی سرعت فاز حاصل از هر دو روش برای دوره تناوب 30 ثانیه به دست می آید. هدف اصلی این مطالعه نشان دادن اثر استفاده از روش های وارون سازی مختلف در بازیابی نتایج وارون سازی می باشد.
    کلیدواژگان: توموگرافی امواج سطحی، منظم سازی تیخونوف، یاناوسکایا-دیتمار، نوفه، سرعت فاز
|
  • Fatemeh Shiravani Shiri*, Ali Gholami Pages 1-14
    Summary
    The residual phase estimation and correction of a post-stack seismic section is important and necessary. The remaining non-stationary phase detection of data without the use of well logs information can be made using statistical methods.
    Kurtosis maximization approach by constant-phase rotation is the most popular post-stack statistical methods that can reveal the non-stationary phase of seismic data. Kurtosis criterion is a fourth-order statistics that preserves the wavelet phase information and plays an important role in seismic data interpretation. In this paper, we change the problem of regularized kurtosis maximization for non-stationary phase estimation that is presented by van der Baan and Fomel (2009) to reduce significantly the computational volume while maintaining the quality of our results. The proposed approach due to lower computational volume, and also, the fewer number of free parameters is more efficient than similar regularization approaches. Therefore, for large-scale data analysis, it is easier to use. The effectiveness of the proposed technique for identifying and correcting the non-stationary residual phase of the seismic signals are shown on both synthetic and field data.
    Keywords: Non-Stationary Phase Estimation, Statistical Analysis, Kurtosis, Constant-Phase Rotation, Tikhonov Regularization
  • Zahra Bagheri, Ashena*, Vahid Ebrahimzadeh –Ardestani, Ali Dehghani Pages 15-28
    Summary
    Specific geological and economic features of the Zagros orogeny region have made this region an important subject to study. Therefore, in this research, we explore the structure of the crust and lithosphere of this region by forward modeling of gravity and geoid data The survey area is located in the Zagros mountain range comprising of all major structural domains from Persian Gulf to central Iran. According to our results, crustal thickness is minimum beneath Persian Gulf increasing toward northeast and reaches to its maximum of 66 km underneath main Zagros thrust. Passing through the Sanandaj- Sirjan zone, crustal thickness decreases again below the central Iran. The depth to the boundary between lithosphere and asthenosphere changes from ~220 km beneath Arabian plate to 100 km beneath central Iran.
    Introduction
    Zagros orogeny is one of the most active orogenic belts among the mountain ranges extending approximately 2000 kilometers from the Anatolian fault in eastern Turkey to the Minab fault in southern Iran. Concerning the importance of this region, structural analysis of Zagros mountain range has been regarded in this research. The Bouguer anomaly data that we have used in this paper, are the ground gravity data with resolution of 2 arc-minute. In order to constrain the results of gravity data modeling and due to inherent non-uniqueness of gravity modeling solution, information from other resources including geomagnetic data, geological studies and seismology have been used.
    Methodology and Approaches
    In this research, density model is created using IGMAS+ software (Interactive Gravity and Magnetic Application System). This method is based on the analytic solution of the volume integral for the gravity and geoid effect of a homogeneous object in which the integral over the polyhedral is transformed into line integrals. The structure of the model is divided into vertical and parallel sections, and other elements forming the geometry of the model are defined in these vertical sections. In the forward modeling, the gravity and geoid effect of the model is compared with the observed values. In the case of non-conformance between them, the necessary changes are applied in the model and anomaly is recalculated. This process continues until desired adaptation between the calculated and observed gravity is established.
    Results and Conclusions
    In this research, the structure of crust and lithosphere in the Zagros continental collision zone was investigated using forward modeling of gravity and geoid data. The use of high-precision ground gravity data, which is more accurate than satellite data, allows us to detect and model the smaller internal structures in the Zagros region. For estimation of the final model, the data and results of geophysical studies as well as geological information of the region have been used as additional information. According to the results of the modeling, the Moho depth below the Persian Gulf basin is the lowest, which is gradually increasing to the northeast to a maximum of 66 km below the main fault of Zagros. Furthermore, the resulting model indicates the thinning of the lithosphere below the Iranian plate, which confirms previous studies in this region.
    Keywords: Zagros mountains, Structure of crust-lithosphere, Forward modeling, Gravity Data, Geoid Data
  • Amin Ebrahimi Bardar, Behrooz Oskooi*, Alireza Goudarzi Pages 29-55
    Summary: Ground penetrating radar (GPR) method is a non-destructive method for detecting shallow subsurface objectives based on the transmission of electromagnetic waves into the earth and the recording of received reflections from the sent waves. Noise recording of GPR data is inevitable. Noise attenuation is one of the most important and most significant steps in GPR processing. GPR data contains a variety of noise types. Random noise during data acquisition affects the quality of the data. Several noise reduction techniques have been proposed in various papers. In this paper, two methods of total variation (TV) and group sparsity total variation (GSTV) are used to reduce noise from GPR data in rational dilation wavelet transform (RADWT) and dual-tree rational dilation wavelet transform (DTRADWT) spaces. The TV method is an inversion method for noise attenuation of data. The developed type of TV is called GSTV. TV and GSTV methods are very effective in noise attenuation. However, due to the presence of random noise in all frequencies of the data, it is difficult to reduce noise in the data.
    Introduction
    The geophysical method of GPR is increasingly being used for near-surface studies. Due to kinematic analogies between electromagnetic and mechanical waves, GPR data are currently processed by techniques developed for reflection seismic, although there are remarkable differences, both in wave field properties and in the geometries used to collect the data.
    Methodology and Approaches
    In this study, at first, GPR data were taken to the RADWT and DTRADWT domains and the noise reduction was made using two denoising inversion methods of TV and GSTV on both artificial and real data. For the case of artificial data, in addition to the qualitative review of the data, the power spectrum of the actual signal, the noisy signal, and the noise attenuated signal were obtained and investigated. Finally, the denoising methods and the results of TV and GSTV for noise reduction were compared.
    Results and Conclusions
    The results of this study show that the DTRADWT space, by providing time-frequency analysis based on rational coefficients, has been able to create significant noise reduction and enhancement in the implementation of proposed methods. The most important reason is that the scale-scale analysis to the GPR signal and the acceptable resolution of the DTRDWT method, due to the use of rational dilatation coefficients, have led to a decrease of aliasing in the time domain and also a decrease in the overlapping of the surfaces. The process of noise generated by the TV implementation in the time domain is the event elongation in the direction of the axis of time and is due to the loss of accuracy in the identification of random phenomena in the time domain by the TV noise reduction interface algorithm. However, the generation of artificial noise in the GSTV de-destabilization method is much less than that of the TV. By examining the performance of these two filters in the DTRADWT environment, it is concluded that both the TV and GSTV transformations have similar behavior in low-frequencies and are successful in noise elimination. In intermediate frequencies, these two denoising methods also behave similarly, and their noise reduction and the variation in the signal are approximately equal. However, the main difference between these two methods is in the removal of high-frequency noise. The GSTV method is more successful in reduction of high-frequency noise than the TV method because the TV power spectrum is close to that of the data, and even at some high-frequency points, the power spectrum is equal to that of the noisy data. From the structural point of view, the effects of the parabolic and boundary layers in the GSTV are much sharper than those of the TV. The results also show that the wavelet domain is more effective at reducing noise rather than time and FX space domains. Furthermore, in the wavelet domain, DTRADWT compared to RADWT has better frequency resolution.


    Keywords: Ground penetrating radar (GPR), Random noise attenuation, Rational dilation wavelet transform, (RADWT), Dual-tree rational dilation wavelet, transform (DTRADWT), Total variation (TV) denoising, Group sparsity total variation, (GSTV) denoising
  • Peyvand Heidarnejad Sanami*, Ali Nejati Kalate Pages 57-72
     
    Summary
    The East Azarbaijan geothermal area is located in northwest of Iran, which hosts several hot springs. It is situated mostly around the Sabalan and Sahand mountains. The Sabalan and Sahand geothermal area is now under investigation for the geothermal electric power generation. It is characterized by high thermal gradient and high heat flow. In this study, our aim is to determine the fractal parameter and top and bottom depths of the magnetic sources. A modified spectral analysis technique named “de-fractal spectral depth method” is developed and used to
    estimate the top and bottom depths of the magnetized layer. A mathematical relationship is used between the observed power spectrum (due to fractal magnetization) and an equivalent random magnetization power spectrum. The de-fractal approach removes the effect of fractal magnetization from the observed power spectrum, and estimates the parameters of the depth to top and depth to bottom of the magnetized layer using iterative forward modelling of the power spectrum. This approach is applied to the aeromagnetic data of the East Azarbaijan Province. The obtained results indicated variable magnetic bottom depths ranging from 9.8 km to about 16.8 km. In addition, the fractal parameter was found to vary from 1.6 to 3 within the study area.
    Introduction
    The interpretation of potential fields is generally carried out in the frequency domain due to (1) simplicity in the implementation of signal processing tools, and (2) easy and concise characterization of potential field signals caused by a large variety of source models. In the frequency domain, the geophysical source parameters such as density have been assumed as uncorrelated distribution. To the contrary, source distribution of the physical parameters is correlated following the scaling or fractal laws. Fractal source distributions have power spectra proportional to , where k is the wave number (i.e. length of the wave vector) and β denotes the respective fractal parameter. This has been discovered by the detailed analysis of the densities
    and susceptibilities of several borehole data around the world including the German continental deep drilling program in southeastern Germany. The fractal parameter reflects the proportion of long and short wavelength variations of a signal. The higher the value of the fractal parameter, the stronger is the relative intensity of the long wavelength variations of the signal. The main objective of the current work is to develop an algorithm for estimation of the fractal parameter using a defractal spectral analysis of the aeromagnetic data from the study area in order to determine the bottom depths of magnetic sources. This approach for analysis of magnetic data assumes that the observed power spectrum is equivalent to the random magnetization model multiplied by the effect of fractal magnetization. It is believed that the de-fractal method can reduce the ambiguity related to the selection of fractal parameter to provide an estimate of bottom depths of magnetic sources more reasonable than the estimates using conventional methods. However, the ability of the de-fractal method has not been verified so much in practical exploration applications. Hence, in this work, an attempt has been made to use this approach to remove the effect of fractal magnetization from the power spectrum of real magnetic data to have a reasonable depth estimate of magnetic sources.
    Methodology and Approaches
    In the last four decades, variations on several methods have been proposed and applied for estimation of the bottom depths (zb) of magnetic sources using azimuthally averaged Fourier spectra of magnetic anomalies. The mathematical formulae of these methods are based on assumptions of flat layers with particular distributions of magnetization, namely: 1) random (uncorrelated) magnetization models or 2) self-similar (fractal) magnetization model. The idea of using models with fractal magnetization distribution comes from the concept of self-similarity. The de-fractal method is based on the assumption that the observed power spectrum is adequately represented by a simplification of the fractal magnetization power spectrum where the magnetization in the x and y directions is fractal and is constant in the z direction. In this case, the observed power spectrum is equivalent to the result of power spectral density of the random magnetization model multiplied by k-α. Having removed the fractal effect, one can treat the resulting de-fractal power spectrum as though it was the power spectrum of a random magnetization model. The present approach can be considered as a correction to the power spectrum of the magnetic field for the fractal distribution of magnetization.
    Results and Conclusions
    In this work, we have determined the bottom depths to magnetic sources using de-fractal spectral analysis method. This method applies a transformation to the observed magnetic field based on an estimated fractal parameter such that the power spectrum resembles the power spectrum that would be generated by a random magnetization distribution. The advantages of this method are that the range of the feasible de-fractal parameters can be estimated, and the bottom depths of the magnetic sources or anomalies are obtained based on simultaneously estimating the depth values from the centroid method and visual inspection of the forward modeling of the spectral peak. The method has been applied to 50% overlapping 11 blocks having 100 * 100 square km dimensions of aeromagnetic data in Ardabil area. As a result, the fractal parameter has been determined between 1.6 and 3 The obtained results also indicate that the bottom depths of
    sources of the magnetic anomalies vary from 9.8 km to about 16.8 km.
    Keywords: Fractal parameter, Aeromagnetic data, Geothermal resources, Power spectrum, De-fractal Power Spectra, East Azarbaijan
  • Somayeh Zamanpour*, Abolghasem Kamkar, Rouhani, Seyed Reza Ghavami, Riabi, Amin Roshandel Kahoo Pages 73-84
    Summary
    The spatial distribution of petrophysical parameters in reservoirs is one of the most important factors for reservoir characterization. A Flow unit is a continuous part of a specific volume of the reservoir in which its geological and petrophysical properties are alike. Therefore, accurate prediction of the flow units in a reservoir is a great task to reliably achieve petrophysical description of the reservoir. Normally, there is no simple relationship between porosity and permeability in reservoirs, thus, a proper method to evaluate the permeability - porosity relationship in hydrocarbon reservoirs is to determine hydraulic flow units. To present the permeability - porosity relationship in this paper, first, the hydraulic flow units in three wells of the hydrocarbon field under study were determined using the methods of flow zone indicator (FZI) and electrofacies, and then, the permeability - porosity relationship in each of the hydraulic flow units was investigated. The results indicate the same number of hydraulic flow units obtained by both methods. However, higher correlation coefficient is obtained for the permeability - porosity plot using FZI method compared to electrofacies method. Moreover, hydraulic flow units can be determined using electrofacies method from well logs even if porosity and permeability data are not available.
    Introduction
    Due to the heterogeneity of some reservoirs in macroscopic and microscopic dimensions, providing a detailed description of petrophysical properties of the reservoirs requires sufficient information about heterogeneity of the reservoirs. Determination of petrophysical properties is significant for exploration, production and management of hydrocarbon reservoirs A flow unit, is a specific volume of a reservoir that contains one or more lithological properties of reservoir, and may be in contact with other flow units. It is necessary to have the accurate prediction of flow units for modeling the reliable petrophysical reservoirs. In this research, conducted in three wells of a hydrocarbon field in south of Iran, hydraulic flow units are obtained using different methods, and then, permeability - porosity relationship in each of the hydraulic flow units is investigated.
    Methodology and Approaches
    In this research, to present permeability - porosity relationship, we, first, determine hydraulic flow units using FZI and electrofacies methods in three wells of the study field, and then, obtain and analyze permeability - porosity relationship in each of the hydraulic flow units.
    Results and Conclusions
    The results of this study have showed that equal number of hydraulic flow units is obtained from both FZI and electrofacies methods. However, the number of hydraulic flow units in one of wells is determined to be different from the other two wells. Furthermore, the obtained permeability - porosity relationship using the aforementioned methods in the hydrocarbon field, indicates that the FZI method establishes this relationship with higher correlation coefficient in comparison with the electrofacies method. However, even if the porosity and permeability date are not available, determination of hydraulic flow units from well logging data using the electrofacies method is possible.
    Keywords: Petrophysical Parameters, Permeability, Hydraulic Flow Units, Flow Zone Index, Electrofacies
  • Siamand Fathi Bayazidabad, Alireza Arab, Amiri*, Abolghasem Kamkar, Rouhani, Andisheh Alimoradi Pages 85-106
    Summary
    In this study, processing and interpretation methods in remote sensing such as visual and spectral analysis have been performed on the ASTER (advanced spaceborne thermal emission and reflection radiometer) data from Zarshuran gold area, and as a result, the alteration zones in the area have been identified. Then, the results of two-dimensional and three-dimensional modeling of Induced Polarization (IP) and resistivity data, using geological information, alteration and mineralization from the core drilling have been interpreted. Eventually, optimal locations for exploratory drilling have been proposed.
    Introduction
    Development of advanced tools in remote sensing and geophysical exploration during recent decades indicates the necessity and importance of these tools in industry. In this paper, ASTER sensor imagery and geoelectrical data have been used in order to determine alteration zones, analyze mineralization system and identify the hidden mineralization in Zarshuran gold mine located in the north of the city of Takab, northwest of Iran. For this purpose, a variety of imageprocessing methods are used. IP and resistivity methods have an important role for exploration of metallic ore deposits. To achieve good results from these methods as well as minimizing the noise in the study area, it is necessary to select appropriate electrode array type for carrying out IP and resistivity surveys. For this purpose, IP and resistivity field operations over 17 parallel survey lines using the pole-dipole array have been made to identify the location of goldmineralization in the area.
    Methodology and Approaches
    In order to identify alteration zones, image processing methods such as BR (band ratio), PCA (principal component analysis), LS-Fit (linear band prediction) and SAM (spectral angle mapping) using ENVI software were applied on the ASTER images from the study area. After collecting IP and resistivity data in the area, two-dimensional and threedimensional smooth inverse modeling were carried out on the data using Res2dinv and Res3dinv software packages, and for better visualization, the results were demonstrated in Voxler and Rock Works software packages.
    Results and Conclusions
    Identification of alteration zones in the study area using remote sensing and image processing methods, and interpretation of the geophysical inverse modeling results using geological and drilling information in the area have been led to the identification of gold mineralized zones or deposits in three-dimensional form. Eventually, based on the whole results, optimal locations for exploratory drilling have been proposed. An outcome of this research is that applying both the remote sensing and geophysics data can be led to improve the accuracy of the results. As the obtained geophysical anomalies at the end of some survey lines have been open, therefore, it is suggested to continue geophysical operations at the end of these survey lines. For better display of gold mineralization, it is also recommended to carry out geophysical operations on a number of survey lines perpendicular to main parallel survey lines. As the acquired considerable IP values in the study area can be due to metallic minerals as well clay minerals, therefore, it is recommended that some samples to be taken from drillings or excavations in the area, and then, to be analyzed by x-ray diffraction (XRD) equipment to determine the amount and type of possible metallic or clay minerals in the samples.
    Keywords: ASTER, Spectral Angle Mapping, Linear Band Prediction, Induced Polarization, Resistivity, Zarshuran Gold Area
  • Ata Eshaghzadeh*, Alireza Hajian Pages 107-125
    Summary
    Downward continuation of potential field data plays an important role in interpretation of gravity and magnetic data. For its inherent instability,many methods have been presented to downward continue stably and precisely. The Tikhonov regularization approach is one of the most robust. It is based on a lowpass filter derivation in the Fourier spectral domain, by means of a minimization problem solution. In this manuscript,we propose an improved regularization operator for downward continuation of potential field data. First, we simply define a special wavenumber named the cutoff wavenumber to divide the potential field spectrum into the signal part and the noise part based on the radially averaged power spectrum of potential field data. Next, we use the conventional downward continuation operator to downward continue the signal and the Tikhonov regularization operator to suppress the noise. Moreover, the parameters of the improved operator are defined by the cutoff wavenumber which has an obvious physical significance. For computing the α parameter, it is necessary that the C-norm of the potential field must be calculated. The improved operator can not only eliminate the influence of the high-wavenumber noise but also avoid the attenuation of the signal.
    Experiments through synthetic gravity and real gravity data from Kohe Namak region, Ghom province, Iran show that the downward continuation precision of the proposed operator is higher than the Tikhonov regularization operator.
    Keywords: C-norm, Cutoff wavenumber, Downward continuation, Improved regularization operator, Kohe Namak, Tikhonov regularization
  • Vahid Zareie, Rasoul Hamidzadeh Moghadam* Pages 127-136
    Summary
    Edge detection of causative bodies is crucial in interpretation of potential field data. Among the various edge detection methods, eigenvalue methods are majorly used to discriminate the gravity anomalies. The present investigation is, however, about to employ the eigenvalue methods to detect the magnetic anomalies. To this end, the largest eigenvalue method was applied to the total intensity of the magnetic data in Astmal area besides the vertical derivative, tilt angle and analytical signal methods in order to interpret the magnetic anomalies. In aids of the mentioned methods, the geomagnetic target map was prepared and integrated with the geological information. Results indicated that the mineralizing fluids infiltrate the faults and fractures of the area. Also, dykes might play important roles in formation of the Astmal magnetite deposit.
    Introduction
    The edge detection of geologic contacts are widely used as a significant tool in geophysical explorations. Different techniques in this area often utilize high-pass filters based on horizontal or vertical derivatives of the potential field data. Typically, various filters such as vertical derivative, total horizontal derivative, analytic signal, tilt angle, theta map, STM, TDX, ILP, etc recognize the edges of the potential field data; nevertheless, they cannot delineate the edges of the sources clearly. Having developed the measuring techniques for potential field gradient tensor data in recent years, some more accurate methods have been presented to detect the edges of causative sources which are based on the curvature and eigenvalues of the potential field gradient tensor matrix. Oruç et al. (2013) and Zhou et al. (2013) made use of eigenvalues of the curvature gravity gradient tensor for the edge detection of gravity anomalies. This study investigated the outcomes of applying the largest eigenvalue, smallest eigenvalue and determinant methods on synthetic magnetic anomalies. The largest eigenvalue method has finally been chosen for interpretation of magnetic anomalies of Astmal area, Eastern Azerbaijan, Iran.
    Methodology and Approaches
     The structural tensor matrix represents partial derivatives of the potential fields in x, y directions. The eigenvalues of this matrix can be applied to detect the edges of causative bodies of an anomaly. Its zero contours specify the horizontal locations of the edges of bodies. In order to delineate the edges of the sources, Oruç et al. (2013) used the largest eigenvalue for the positive contrast density of sources and smallest eigenvalue for situations with the negative contrast density. In this study, results of applying these methods on synthetic magnetic anomaly data along with noise and without noise, were investigated. Then, the largest eigenvalue method was used to interpret the real magnetic data extracted from Astmal area to contribute in providing its structural map. Finally, the results of the magnetic methods with geological data were integrated. 
    Results and Conclusions
    The results of applying the eigenvalue and tilt methods on synthetic magnetic data showed that the largest eigenvalue method of the total intensity data can display the edge of the bodies more accurately. Besides, the largest eigenvalue method has the highest performance in separation of deeper bodies. Therefore, locations of faults, dykes and magnetic bodies of Astmal area have been indicated by vertical derivative, tilt angle, analytical signal and eigenvalue methods. The data of magnetometry and geology have been integrated to disclose that the fluid infiltration through the faults and fractures of this area causes magnetic mineralization.
    Keywords: Geomagnetic, Edge detection of magnetic anomaly, The largest eigenvalue method
  • Kaveh kianfar*, Abolfazl Ranjbar Noiey, Behrooz Rezaie Pages 137-146
    Summary
    Global and regional geomagnetic field models give the components of the geomagnetic field as functions of place and time. Most of these models utilize polynomials or Fourier series to map the input variables to the geomagnetic field values. The only temporal variation in these models is the long term secular variation. However, there is an increasing need amongst certain users for the models that can provide shorter term temporal variations, such as the geomagnetic daily variation. In this research, we have constructed an empirical model of the quiet daily geomagnetic field variation based on functional fitting.
    Introduction
    The geomagnetic models provide a universal description of the magnetic field of the earth for scientific and applied applications. However, considering the course of changes in time concerning the geomagnetic field, it seems necessary to provide a magnetic model that can predict the changes in it in the future. Various factors affect the geomagnetic field. These factors appear in regular and sometimes irregular periods and create errors in the prediction of geomagnetic models. It is axiomatic that knowing the above factors and applying them in the models for correct estimation of the changes can have a substantial effect on the increase of the accuracy of the models. Methodology and Approaches Many attempts have been made over some past decades to make a comprehensive geomagnetic model using the combination of the geomagnetic data collected in different periods. The investigations into time and location have shown that all real geomagnetic field components have always had average values over certain periods around which the momentary values fluctuate. These fluctuations result from some external factors affecting the geomagnetic field that are usually ignored in the reference models of magnetic fields due to the universal perspective.
    objective
    of this paper is to investigate into the high frequency fluctuations of the earth magnetic field and to estimate the  components affecting them. For this purpose, a mathematical model of the magnetic field fluctuations resulting from the external factors such as solar activities, lunar age, local time and day of year was proposed, and the results were analyzed using the real observations and the reference model EMM2010. In this regard, the coefficients of the proposed model were determined using the long observations of the magnetic field of the earth in a magnetic observatory and the method of least squares through which the high frequency fluctuations of the geomagnetic field were estimated. Furthermore, in this paper, a comparison between measurements taken in the same station and the predicted data by the reference model has been made. The local model proposed in this paper confirms the precision and accuracy of the results.
    Results and Conclusions
    A comparison between the real observations of the observatories and the results resulting from the combination of the reference model and the local model proposed in this paper indicates 90% increase of local precision in modelling of the magnetic field of the earth. On the other hand, calculation of the local model in different observatories and applying the estimated coefficients of each observatory to the next one have shown that the model of local changes of the earth magnetic field differs in different latitudes having a certain longitude, and also, in different longitudes having a certain latitude. Therefore, determination of the coefficients of this model is possible only locally, and its effect is lessened through the change in its geographical coordinates in relation to the location of the observatory.
    Keywords: Earth magnetic field, Least squares, Modeling, Daily variation of magnetic field
  • Mohammad Khodaiy Arbat, Mohammad Emami Niri Pages 147-157
    Summary
    It is necessary to have enough data from a reservoir to predict its performance and develop it as accurate as possible. Nowadays, it is a common practice to combine direct and indirect methods to achieve the optimal process of data gathering while considering time, cost and precision. Empirical relationships and optimization algorithms are the two most used indirect methods and recently, numerous researches have focused on the latter one. One of the newest and most powerful optimization algorithms is artificial bee colony (ABC) algorithm. In this paper, we have explained its application for reservoir characterization by estimating shear wave velocity (Vs) using some series of recorded well logs. We have carried out a study on a sandstone and a carbonate reservoir using the ABC algorithm and Greenberg-Castagna relationships. We have chosen three logs among the available ones and used a polynomial to derive their relationship with Vs. In both cases, the ABC has acted more efficiently, indicating that it can be employed to estimate Vs in reservoirs with the lithology similar to the one in our cases when we have no recorded data.
    Introduction
    Vs is a useful quantity for interpreting seismic data, and is used for identifying lithology and calculating some important mechanical, petrophysical, geophysical and geomechanical properties of the reservoir rock. Hence, it is intended to be measured/caluculated by either direct (e.g. DSI tool) or indirect (e.g. experimental Greenberg-Castagna relationship and artificial intelligence) methods. One of the most novel and robust artificial intelligence algorithms is the ABC algorithm. It is a swarm-based metaheuristic global optimization algorithm based on the behavior of bee colonies when they are looking for food. In addition, one of the most used experimental relationships for predicting Vs is Greenberg- Castagna relationship. The accuracy of these two methods, i.e. the ABC algorithm and the Greenberg-Castagna relationship, to predict Vs in sandstone and carbonate case studies is compared in this paper.
    Methodology and Approaches
    The ABC algorithm is implemented in 4 phases of initialization, employed bees, onlooker bees and scout bees to find the optimal point in a constraint search. In this study, a first-order multivariate polynomial relates Vs to neutron porosity, bulk density, and P-wave velocity logs, and the objective function is mean absolute error or MAE (based on the values measured by DSI tool) because the data contains numerous spikes. The algorithm is coded and run in MATLAB®. The derived polynomial is then used to estimate another set of data to evaluate its ability to be generalized.
    A modified form of Greenberg-Castagna relationship is also used to estimate Vs in brine saturated multi-mineral rocks.
    The values of Vp used in this relationship must be corrected based on fluid saturations by Gassmann’s equation. Finally, a comparison between the results of these two methods is made both graphically and quantitatively.
    Results and Conclusions
    After implementing the written code to our specified problem, we found out that the MAE of the result vector in training phase was 0.023 for the sandstone case and was 0.077 for the carbonate one, therefor, relative errors were in range of [1.3%, 1.7%] and [2.9%, 4%], respectively. In the evaluation phase, the MAEs were 0.028 and 0.070, corresponding to relative errors ranging [1.9%, 2.1%] and [2.5%, 3.6%] for sandstone and carbonate case studies, respectively. On the other hand, the MAEs for predictions obtained from the experimental Greenberg-Castagna relationship were 0.043 and 0.091 for sandstone case and carbonate one, respectively. From these results, it can be concluded that the ABC algorithm is capable to be used for the purpose of our study here. Hence, these obtained relationships for predicting Vs can be used in other reservoirs with the same lithology in the lack of measured data.
    Keywords: Artificial bee colony algorithm, Shear wave velocity, Greenberg-Castagna relationship, Petrophysical data, Rock-physics
  • Mohammad Hosseini, Mohammad Ali Riahi* Pages 159-174
    Summary
    In this paper, the task is to return from a set of multiplicities from a model to obtain an approximation of that model using sparse approximation. The term ‘approximation’ indicate the sufficiency of an interpretation that is close enough to the true mode, i.e. reality. In geosciences, the multiplicities are provided by multiple-point statistical (MPS) methods. Realistic modeling of the earth interior demands for more sophisticated geostatistical methods based on true available images, i.e. the training images. Among the available MPS methods, the DisPat algorithm is a distance-based MPS method, which generates appealing realizations for stationary and non-stationary training images by classifying the patterns based on distance functions using kernel methods. Advances in non-stationary image modeling is an advantage of the DisPat method. Realizations generated by the MPS methods form the training set for the sparse approximation. The sparse approximation is comprising of two steps, sparse coding and dictionary update, which are alternately used to optimize the trained dictionary. Model selection algorithms like LARS are used for sparse coding. LARS optimizes the regression model sequentially by choosing a proper number of variables and adding the best variable to the active set in each iteration. The ILS-DLA dictionary learning algorithm addresses the internal structure of the dictionary by considering the overlapping or non-overlapping blocks and the inversion task according to the internal structure of the trained dictionary. The ILS-DLA is fast in the sense that it inverts smaller blocks constructing the trained dictionary rather than inverting the entire dictionary. The trained dictionary is sequentially updated by alternating between sparse coding and dictionary training steps. According to the experiments, the compressed sparsity-based image model is superior to 90% of the generated realizations by 90% probability.
    Introduction
    In reservoir characterization and modeling, providing a large set of population samples is practically impossible unless introducing stochasticity in the models using the MPS methods. DisPat algorithm is one the MPS methods that is robust for integrating data based on visual system of the human being and representing new algorithms for modeling images with non-stationary properties. The task is to achieve a single model image as the representation of the true model from a large set of MPS realizations, which are considered as the manipulations of the true model. The mathematical tools to perform such a task is known as the sparse approximation.
    Methodology and Approaches
    DisPat is a distance-based pattern-based multiple-point geostatistical method. In DisPat, the training image is scanned by the designed template and the patterns are extracted from the training image. The patterns are then classified based on distance functions using kernel methods. A distance function measures the distance between each pair of patterns in
    the metric space. Any two close points in the metric space refer to two similar patterns from the pattern database. The kernel k-means clustering algorithm is used to classify the patterns in the pattern database. The sparse approximation is a sequential alternation between two steps: sparse coding and dictionary update. The LARS algorithm is used for the sparse coding that is a model selection algorithm used to select a parsimonious set of covariates among a larger set of them. The ILS-DLA algorithm is used for dictionary updating that solves the sparse approximation problem according to the internal structure of the dictionary. The dictionary matrix is blocked into a definite number of sub-matrices, which are either blocky or overlapping. The inversion is performed for each block rather than the whole dictionary, and therefore, it is a fast algorithm.
    Results and Conclusions
    The three-dimensional (3D) cube seismic data were deterministically inverted and acoustic impedance (AI), porosity, and saturation cubes were obtained. The spectral decomposition cube was generated and studied. Two reality-based permeability models were selected from the spectral decomposition cube based on which, many MPS realizations were generated using DisPat-MPS methodologies. The ILS-DLA learning algorithm was applied on the set of realizations along with the LARS algorithm for sparse coding. The resultant picture model was a compressed model that is superior to 90% of the model images in the training sample by 89.58% probability.
    Keywords: Sparse approximation, Dictionary learning, Sparse coding, Multiple-point geostatistics, Reservoir characterization, Seismic inversion, Reservoir simulation
  • Najmieh Mohammadi, Habib Rahami*, Ali Gholami Pages 175-192
    Summary
    Two-dimensional (2-D) surface wave tomography is one of the most practical approach to reveal the lateral variation of phase/group velocity. Hence, various methods have been introduced to attain the more accurate images. In this paper, we compare two different tomography methods (Tikhonov regularization method and Yanovskaya-Ditmar method) and try to show their advantages and drawbacks resulted from their basic assumptions. We first investigate the lateral resolution capability of the methods using the synthetic checkerboard test in cases of noise free and noise level of 3%. Synthetic models are considered with different grid spacings of 0.5˚×0.5˚, 1˚×1˚ and 2˚×2˚. Then, they were applied on real data containing phase velocity obtained from the teleseismic Rayleigh waves recorded at broad band stations located in Iran at the period of 30 s. A comparison of the results obtained from the Tikhonov regularization and Yanoskaya- Ditmar methods shows that the former method has a better lateral resolution than the latter method.
    Introduction
    Surface wave tomography has been used as a very popular method to determine lateral variations of phase or group velocity. Due to special conditions of data, surface wave travel time tomography is an ill-conditioned inverse problem and has non-unique solution. The conditions arise from the fact that the observed data are contaminated by noise, and also, distributed non-uniformly. Uneven data coverage in tomography imposes two different systems on the inverse problem. The over-determined system is defined for portion of the study area with high density ray, and the underdetermined system is used where there is no enough data. In such case, regularization is exploited to choose a suitable model. In this paper, we use the method of Yanovskaya and Ditamr (1990), based on Backus-Gilbert approach, and compare its results with those estimated from Tikhonov regularization method (Tikhonov et al., 1977) in two cases of synthetic and real data.
    Methodology and Approaches
    Under ray theory, in surface wave travel time tomography problem, we incorporate the measured frequency-dependent travel times of surface wave phase/group velocity along their rays with formulation of 𝑡𝑖 (𝜔) = ∫ 𝑆𝑖 (𝑙. 𝜔)𝑑𝑙 𝑙𝑖 , where 𝑡𝑖 (𝜔) is the travel time of ith ray path with phase/group slowness 𝑆𝑖 along the ray path 𝑙𝑖 at angular frequency 𝜔. After discretization, matrix form of the problem is d=Gm+e, where 𝑑 𝜖 ℝ𝑚 is data, 𝐺 𝜖 ℝ𝑚×𝑛 is the forward operator, 𝑚 𝜖 ℝ𝑛 is model and 𝑒 𝜖 ℝ𝑚 is noise. The general form of Tikhonov regularization is expressed as:argmin 𝑚 𝜖 ℝ𝑛 {‖𝑑 − 𝐺𝑚‖2 2 + 𝜆‖𝐿𝑚‖2 2 }, where 𝜆 𝜖 ℝ+ as a regularization parameter controls trade-off between two terms and L denotes the regularization operator, which is the first-order derivative in this study. The problem is quadratic, and thus, its minimizer m is defined explicitly by the associated normal equations (𝐺𝑇𝐺 + 𝜆𝐿𝑇 𝐿)𝑚 = 𝐺𝑇 𝑑, which can be solved directly.
    In the Yanoskaya-Ditmar method, the main goal is the optimization of Σ [𝛿𝑡𝑖 − ∬ 𝐺𝑖 (𝑟)𝑚(𝑟)𝑑(𝑟) Ω ] 2 + 𝛼 ∬ |𝛻𝑚(𝑟)|2𝑑𝑟 Ω , where 𝛿𝑡𝑖 is the travel time residual along ith ray path, 𝐺𝑖 (𝑟) is kernel that is different from zero in vicinity of the ray, 𝑚(𝑟) is the relative slowness defined as [𝑉(𝑟)−1−𝑉0 −1] 𝑉0 −1 = − 𝛿𝑉(𝑟) 𝑉0 , where 𝑉0 is the velocity in the initial approximation model, 𝛼 is a regularization parameter and 𝛻𝑚(𝑟) is the gradient of model.
    Results and Conclusions
    In this study, we performed two methods of tomography on synthetic and real data. The results obtained from synthetic test show that in two cases of noise free and noise level of 3%, the Tikhonov regularization method is more capable in the recovery of all three synthetic models in comparison with the Yanovskaya-Ditmar method. It should be mentioned that the synthetic checker board test model with grid spacing of 0.5˚×0.5˚ is poorly recovered by both methods. It refers that apart from the method of inversion, the ray coverage of the study area does not suit this grid spacing. Tomography maps obtained using real data are compared with the previous studies. In comparison with the results of Yanovskaya- Ditmar method, the results of Tikhonov inversion show more similarities with other studies, especially for small features. The lower lateral resolution of the results obtained from the Yanovskaya-Ditmar method can be explained by the imposed error resulted from its assumptions and consideration of Fresnel zone in a calculation of slowness along the ray path.
    Keywords: Surface wave tomography, Tikhonov regularization, Yanovskaya-Ditmar method, Noise, Phase velocity