فهرست مطالب

  • سال پنجم شماره 2 (پیاپی 9، 1390)
  • تاریخ انتشار: 1390/05/10
  • تعداد عناوین: 10
|
  • میثم عابدی، احمد افشار، غلامحسین نوروزی، وحید ابراهیم زاده اردستانی صفحه 1
    روش گرادیان کامل نرمال شده (NFG) به صورت گسترده در روش های پتانسیل، به خصوص روش مغناطیس سنجی به کار برده می شود. ازآنجاکه در تهیه نقشه های ادامه فروسو محاسبات در بعد بسامد صورت می گیرد، اثر نوفه به شدت باعث تخریب این نقشه ها می شود؛ درنتیجه، تفسیر داده های مغناطیس با استفاده از روش NFG صورت می پذیرد. در این روش با استفاده از بسط فوریه سینوسی داده های مغناطیسی، مشتقات جهتی این داده ها محاسبه می شود و با نرمال کردن این خروجی ها نسبت به هم، نقشه NFG به دست می آید. با استفاده از این روش می توان موقعیت، عمق مرکز و فاصله تا سطح بالای توده کانسار ها را برآورد کرد. یکی از مهم ترین پارامترها در تعیین شکل دقیق توده دارای بی هنجاری، به خصوص در برآورد عمق توده، به کارگیری درست عدد هارمونیک در رابطه NFG می باشد. در این مقاله، این روش بر روی داده های مصنوعی بدون نوفه و نوفه دار آزمایش شده است و بعد از کسب نتایج رضایت بخش، به صورت دو و سه بعدی روی داده های واقعی، یعنی توده مغناطیسی معدن مروارید زنجان اجرا شده است. نتایج حاکی از این است که این روش به خوبی توصیفی کلی از وضعیت نهشته به ما می دهد و می توان آن را درحکم یک روش سریع، در تفسیر داده های مغناطیسی به کار برد. با توجه به خروجی حاصل شده، نهشته معدن مروارد دارای شیب تندی است که فاصله تا سطح بالای توده کانسار کم و تا عمقی حدود 100 متر نیز گسترش دارد. نتایج حفاری و کارهای صورت گرفته، نشان از نهشته ای با شیب در حدود 78 درجه دارد که عمق آن متغیر است و با میانگین حدود 6 متر، به خوبی با نتایج به دست آمده از روش NFG مطابقت دارد.
    کلیدواژگان: مدل های مصنوعی، داده های مغناطیسی، NFG دوبعدی، NFG سه بعدی، معدن مروارید زنجان
  • سرمد قادر، خلیل کرمی، احمد رایین صفحه 16
    آگاهی از نحوه توزیع و تغییرات الکترون در لایه F2 یون سپهردر مطالعه توفان های خورشیدی و همچنین برآورد و تصحیح تاخیر انتشار یون سپهری موثر بر ارتباطات راه دور، دارای اهمیت فراوان است. برای برقراری ارتباطات مطمئن و بدون نوفه با ماهواره ها و همچنین ارتباطات رادیویی زمینی، ضروری است که بسامد بحرانی و همچنین چگالی الکترونی بیشینه لایه F2 یون سپهر مشخص شود. در این پژوهش بسامد بحرانی و چگالی الکترونی بیشینه لایه F2 یون سپهری در منطقه تهران از تابستان 1385 تا تابستان 1386 مورد بررسی قرار می گیرد و نتایج آن با خروجی مدل IRI-2007 مقایسه می شود. در این بازه زمانی شدت فعالیت های خورشیدی کمینه است. مقایسه نشان می دهد که مدل یون سپهری IRI-2007 به خوبی تغییرات زمانی بسامد بحرانی و چگالی الکترونی بیشینه لایه F2 را نشان داده است. همچنین این مدل به خوبی بی هنجاری نیمه سالیانه را پیش بینی کرده است که در آن چگالی الکترونی بیشینه لایه F2 یون سپهری در اعتدالین بیشتر از فصل تابستان است. مقایسه ها نشان می دهد که هنگام استفاده از مدل، زیرروال CCIR نسبت به زیرروال URSI پیش بینی بهتری در منطقه تهران به نمایش می گذارد. مقایسه روشن می سازد که تفاوت بسامد بحرانی لایه F2 حاصل از پیش بینی مدل و مشاهدات، کمتر از 12 درصد برای تمام فصول سال است. همچنین خطای مربوط به چگالی الکترونی بیشینه لایه F2 کمتر از 21 درصد برای تمام فصول سال به دست آمده است. به این ترتیب با توجه به نتایج حاصل، می توان از این مدل در بازه های زمانی که دسترسی به داده های اندازه گیری شده امکان پذیر نیست، استفاده کرد.
    کلیدواژگان: یون سپهر، بسامد بحرانی لایه F2 یون سپهر، چگالی الکترونی بیشینه لایه F2 یون سپهر، مدلسازی و پیش بینی یون سپهر
  • سرمد قادر، خلیل کرمی، احمد رایین صفحه 28
    ارتفاع بیشینه لایه F2 یون سپهر (یونسفر) اطلاعات مفیدی درارتباط با بادهای نصف النهاری که در یون سپهر و گرم سپهر (ترموسفر) می وزند به دست می دهد. همچنین این عامل در اجرای مدل های گردش کلی گرم سپهر (thermospheric general circulation models) از پارامترهای اساسی است. به علاوه بر هم کنش بین یک سیگنال رادیویی و ذرات باردار در محیط یون سپهر می تواند منجر به تغییر قابل توجهی در دامنه، فاز، قطبش و چرخش فاراده در سیگنال حامل شود که مقادیر این تغییرات تابعی از محتوای الکترون کلی یون سپهر است. در این پژوهش ارتفاع بیشینه لایه F2 یون سپهری در منطقه تهران از تابستان 1385 تا تابستان 1386 مورد بررسی قرار می گیرد. همچنین محتوای کلی الکترون یون سپهر در چهار روز از فصل های متفاوت سال محاسبه می شود. به علاوه مقادیرخروجی حاصل از پیش بینی ارتفاع بیشینه لایه F2 یون سپهری و محتوای کلی الکترون یون سپهر در بازه زمانی مشابه توسط مدل IRI-2007، با مقادیر حاصل از محاسبات در ایستگاه یون سپهر موسسه ژئوفیزیک دانشگاه تهران مورد مقایسه قرار می گیرد. در اجرای مدل IRI-2007 فقط ا زیر روال CCIR در پیش بینی ارتفاع بیشینه لایه F2 یون سپهر مورد استفاده قرار گرفته است. محاسبه ها نشان می دهند که مقادیر ارتفاع بیشینه لایه F2 محاسبه شده از رابطه شیمازاکی مقادیر بیشتری نسبت به رابطه بیلیتزا در هنگام روزنتیجه می دهد، درحالی که مقادیر ارتفاع بیشینه لایه F2 یون سپهری محاسبه شده از این دو رابطه، در ساعت های شب مقادیر یکسانی دارند. همچنین نتایج روشن می سازد که حدود دوسوم از محتوای کلی الکترون یون سپهر در بخش بالایی یون سپهر و حدود یک سوم باقی مانده از محتوای کلی الکترون یون سپهر در بخش پایینی یون سپهر واقع شده است و تغییرات محتوای کلی الکترون یون سپهر در ساعت های روز نوسان شدیدی را نشان می دهد، درحالی که در ساعت های شب تغییرات کمی را شاهد هستیم.
    کلیدواژگان: یون سپهر، محتوای کلی الکترون یون سپهر، ارتفاع بیشینه لایه F2 یون سپهر، مدل سازی یون سپهر
  • فرزاد شیرزادی تبار، بهروز اسکویی، مهرداد باستانی صفحه 38
    در هر فرایند وارون سازی، عوامل گوناگونی می تواند بر نتیجه نهایی تاثیر بگذارد. اثر بعضی از این عوامل زیاد است و ممکن است باعث دور شدن پاسخ فرایند وارون سازی از مدل اصلی شود. از طرف دیگر در بیشتر مسئله ها، معکوس ژئوفیزیکی، پاسخ فرایند وارون سازی یکتا نیست و بنابراین تغییر هریک از این عوامل می تواند منجر به ایجاد مدلی شود که داده ها را هم به یک اندازه برازش می کند. در نتیجه شناخت چنین عواملی برای رسیدن به یک نتیجه مطلوب بسیار مهم است، طوری که باید دقت بیشتری در انتخاب عواملی داشت که اثرات قابل ملاحظه در جواب دارند.
    در این مقاله از روش وارون سازی اکام استفاده شده و در آن اثر تغییر در تعداد و ضخامت لایه ها، اثر تغییر پارامتر تعادل β و اثر تعداد و بزرگی بسامد های مورد استفاده بر نتایج نهایی برای یک مدل مصنوعی سه لایه و همچنین یک نیم رخ از داده های واقعی بررسی شده است. نتایج نشان می دهد که اثرات ناشی از تغییر ضخامت لایه ها و نیز تعداد لایه ها کم اهمیت است ولی اثر تغییر β و تعداد و بزرگی بسامد ها بر پارامترهای مدل به دست آمده بسیار چشمگیرترند.
    کلیدواژگان: الکترومغناطیس هوابرد، پارامتر تعادل، وارون سازی اکام، عدم یکتایی
  • حسن بخشنده امنیه، معین بهادری صفحه 51
    لرزش زمین یکی از آثار جانبی عملیات انفجار است. معیار مهم در ارزیابی میزان خسارت ناشی از لرزش زمین، حداکثر سرعت ذرات است. به منظور بررسی اثرات امواج حاصل از انفجار در دهانه های آبگیر و مخازن ضربه گیر روی سازه های زیرزمینی و بتن ریزی سد گتوند علیا، 16 نگاشت 3 مولفه ای و درمجموع 48 رکورد حاصل از 4 انفجار ثبت شد. این عملیات با 4 دستگاه لرزه نگار PG-2002 با لرزه سنج های سه مولفه ای GS-11D در سه امتداد متعامد شعاعی، مماسی و قائم برداشت و با نرم افزار DADISP پردازش شد. با استفاده از فاکتور فاصله مقیاس شده رابطه ای برای پیش بینی حداکثر سرعت ذرات ناشی از انفجار ارائه شد. این رابطه بر اساس ریشه سوم فاصله مقیاس شده و ضریب همبستگی 85/0 است. دقت این رابطه به کمک الگوریتم ژنتیک به مقدار 89/0 افزایش پیدا کرد. باتوجه به حداقل فاصله 2/56 متری سازه تا مرکز انفجار، حداکثر میزان خرج مجاز در هر تاخیر 4/254 کیلوگرم پیشنهاد شد.
    کلیدواژگان: انفجار، لرزش زمین، حداکثر سرعت ذرات، الگوریتم ژنتیک
  • امین روشندل کاهو، علی نجاتی کلاته صفحه 61
    تصویرسازی لرزه ای به شدت به کیفیت داده های لرزه ای وابسته است. تفسیر ساختاری و چینه ای داده های لرزه ای که حاوی کمترین میزان نوفه اتفاقی و همدوس باشند، به مراتب راحت تر است. نوفه های متعددی در داده های لرزه ای دیده می شود که دسته مهمی از آنها، نوفه های اتفاقی اند. تضعیف این دسته از نوفه ها، به خصوص زمانی که نسبت سیگنال به نوفه کم باشد، بسیار دشوار است. در این مقاله از روش تجزیه مد تجربی برای تضعیف نوفه استفاده شده است. در این روش سیگنال نوفه ای به مولفه های نوسانی که تابع مد ذاتی نامیده می شوند، تجزیه می شود. فرایند تضعیف نوفه شامل فیلتر کردن هر تابع مد ذاتی و بازسازی سیگنال اصلی با توابع مد ذاتی فیلتر شده است. نتایج به دست آمده از اعمال روش روی داده های لرزه ای مصنوعی و واقعی، کارایی مطلوب روش پیشنهادی را نشان می دهد.
    کلیدواژگان: تضعیف نوفه اتفاقی، تجزیه مد تجربی، تابع مد ذاتی، آستانه گذاری بازه ای
  • نفیسه پگاه فر، عباسعلی علی اکبری بیدختی، پیمان زواررضا صفحه 69
    نظریه مونین-ابخوف (1954) از ابتدا تا کنون اساس بسیاری از تحقیقات صورت گرفته در لایه مرزی جو، به ویژه لایه سطحی، بوده است. از آنجا که این نظریه روشی کم هزینه برای برآورد شدت تلاطم و شارها که اساس کار مدل های پخش است به دست می دهد، مورد توجه خردهواشناسان نیز قرار گرفته است. درنتیجه، این نظریه در بسیاری از آزمایش های صورت گرفته بر سطوح متفاوت شامل آبها، مناطق روستایی، شهری و جنگلی، بررسی شده است تا صحت و دقت روابط همانندی که با آن پیشنهاد می شود، سنجیده شود. از این رو در این بررسی سعی شده تا خلاصه ای از تحقیقات صورت گرفته برای محاسبه پارامترهای لایه سطحی که در نظریه مونین-ابخوف از آنها استفاده می شود، به همراه مراحل پیشرفت، تعدیل و تکامل این نظریه از ابتدا تا امروز تهیه شود. در این راستا کاربرد این نظریه در منطقه شهری که دارای توپوگرافی است نیز تحقیق شده، و روابط همانندی با ثابت های تجربی برای پارامترهای بی بعد گرادیان باد و شدت تلاطم بی بعد شده برای هر سه مولفه باد در منطقه شهری تهران و در زیرلایه زبری، محاسبه شده است. برای این منظور از داده های سودار موسسه ژئوفیزیک و یک برج 100 متری در نزدیکی آن استفاده شده است. نتایج نشان می دهد که این نظریه با رهیافت مقیاس بندی محلی را می توان در منطقه شهری با توپوگرافی پیچیده نیز به کار بست. بزرگ بودن گرادیان بی بعد باد و شدت تلاطم بی بعد شده در منطقه نسبت به تحقیقات صورت گرفته در سایر مناطق، ضرورت استفاده از ضرایب به دست آمده برای بررسی مدل های پخش در منطقه تهران را نشان می دهد.
    کلیدواژگان: نظریه مونین، ابخوف، لایه سطحی منطقه شهری، زیرلایه زبری، گرادیان بی بعد شده باد، شدت تلاطم بی بعد شده
  • محمد رسول نیک بخش، میرستار مشین چی اصل صفحه 86
    در تحقیق حاضر، روش جدیدی برای برآورد عمق و نیم پهنای صفحه شیب دار درحکم یک بی هنجاری دوبعدی پتانسیل خودزا پیشنهاد می شود. دراین روش که به روش میانگین متحرک ثانویه (second moving average method) معروف است، برای طول پنجره های متوالی با استفاده از منحنی های پنجره ای (window curves) عمق و نیم پهنای صفحه شیب دار دوبعدی محاسبه می شود. برای هر طول پنجره ثابت به ازای هر نیم پهنای فرض شده معادله غیر خطی به دست آمده، به روش تکرار نیوتن به منظور محاسبه عمق حل می شود. با رسم عمق های محاسبه شده برحسب بازه نیم پهنای فرض شده که به منحنی های پنجره ای معروف هستند، می توان عمق و نیم پهنای صفحه شیب دار از محل تقاطع این منحنی ها را به دست آورد. در تحقیق حاضر این روش برای یک مدل با عمق های متفاوت و نیم پهنای یکسان برای داده های مصنوعی بدون نوفه ونوفه ای مورد بررسی قرار گرفته است. نتایج به دست آمده روشن ساخت که این روش برای داده های بدون نوفه بسیار دقیق است و برای داده های نوفه ای خطای کمتر از 3 درصد دارد.
    کلیدواژگان: پتانسیل خودزا، میانگین متحرک ثانویه، منحنی پنجره ای، عمق ونیم پهنا، صفحه شیب دار
  • سکینه خان سالاری، مجید مزرعه فراهانی، مجید آزادی صفحه 97
    سامانه های دارای حرکات چرخشی شدید مانند توفان های حاره ای و شناخت عوامل تشدید و تضعیف کننده آنها دارای اهمیت فراوان است. به منظور بررسی ناپایداری های مربوط به جریانات پیچکی و چرخشی، از کمیتی به نام هلیسیتی استفاده می شود. به این ترتیب بررسی عوامل ایجاد و اتلاف هلیسیتی دارای اهمیت بسزایی است. محاسبه شار هلیسیتی، به خصوص شار پایین سوی هلیسیتی نیز از اهمیت ویژه ای برخوردار است. در این تحقیق روابط لازم برای محاسبه متغیرهای هلیسیتی و شار هلیسیتی معرفی می شود. سپس راستی آزمایی روابط به دست آمده با کاربست آنها در توفان گونو مورد بررسی و تحلیل قرار می گیرد. به این منظور هلیسیتی و شار آن با استفاده از داده های سامانه پیش بینی جهانی(Global Forecasting System) محاسبه شد. این داد ه ها در راستاهای طول و عرض جغرافیایی دارای تفکیک یک درجه هستند که این دقت برای بررسی حاضر ناکافی بود، بنابراین در ابتدا با استفاده از روش های متداول درون یابی، متغیرهای موردنیاز با تفکیک مناسب این بررسی محاسبه شد. سپس با استفاده از داده های بیشینه سرعت مماسی باد در قله لایه مرزی تلاطمی و جای گذاری آن در رابطه شار هلیسیتی، مقدار بیشینه شار هلیسیتی به دست آمد. بیشترین مقادیر شار هلیسیتی و هلیسیتی در این توفان در روز ششم ژوئن 2007 که در آن شدت توفان از سایر روزها بیشتر بود به دست آمد. مقادیر هلیسیتی و شار هلیسیتی در لایه مرزی تلاطمی به ترتیب در بازه 10975 - 1092.0 و 109197 - 1096 به دست آمد که این مقادیر هم مرتبه با هاریکن بونی (Bonnie) است.
    نتایج نشان می دهد که عامل شناوری دینامیکی که متفاوت از شناوری ترمودینامیکی کلاسیک است، باعث افزایش مقدار هلیسیتی، و اصطکاک سطحی باعث کاهش آن می شود. همچنین این افزایش یا کاهش به ترتیب باعث افزایش یا کاهش ارتفاع سطحی که در آن بیشینه شار هلیسیتی اتفاق می افتد، می شود. بررسی ها روشن می سازند که بیشینه شار هلیسیتی در قله لایه مرزی وشکسان متلاطم، رخ می دهد و این کمیت می تواند شاخصی برای مقایسه شدت پیچک های جوی باشد.
    کلیدواژگان: هلیسیتی، شار هلیسیتی، لایه مرزی، نیروی شناوری، نیروی اصطکاک، جریانات پیچکی
  • معصومه آمیخ پی، بهزاد وثوقی، سیاوش عربی صفحه 116
    استخراج کمیت هایی مستقل از دیتوم در بررسی تغییرشکل در شبکه های کنترل ژئودزی، نقش موثری در تفسیر صحیح نتایج و بررسی های گوناگون ژئو دینامیکی خواهند داشت. در این تحقیق رفتار تغییرشکل ارتفاعی منطقه خراسان، که در مناطق مشهد، نیشابور و کاشمر دچار فرونشست های قابل توجهی است، با محاسبه کمیت های ناوردای تانسور تغییر انحنا نسبت به دو دیتوم متفاوت، مورد بررسی قرار گرفت. نتایج به دست آمده از هر دو دیتوم، نشانگر بیشینه تغییر انحنای میانگین و بیشینه تغییر انحنای گاوسی و بیانگر نرخ زیاد فرونشست منطقه است. این نتایج نشان دهنده مناسب بودن جایگزینی روش های دیگر سرشکنی مشاهدات ژئودتیکی مربوط به بررسی تغییرشکل، با کمیت های ناوردای استخراج شده از تانسور تغییر انحنا، مخصوصا در مناطقی که با مشکل تثبیت دیتوم مواجه اند، است. بر این اساس به معیارهای ناوردای مناسبی برای بررسی نحوه تغییرشکل ارتفاعی پوسته زمین و گستره مکانی آن، با استفاده از مشاهدات ژئودتیکی دست یافتیم.
    کلیدواژگان: دیتوم، شبکه های کنترل ژئودزی، ناوردا، فرونشست
|
  • Maysam Abedi, Ahmad Afshar, Gholam Hossain Norouzi, Vahid Ebrahimzade Ardestani Page 1
    The normalized full gradient (NFG) method defined by Berezkin (1967, 1973 and 1998)is used for downward continuation maps. Analytical downward continuation is a methodof estimating the field closer to the source, and, consequently, it results in a betterresolution of underground rock distribution. However, the usefulness of this process islimited by the fact that the operation is extremely sensitive to noise. With noise free data,downward continuation is well defined; it is unnecessary to continue below the sourcelevel. In the presence of noise, the amplification of high frequencies is so strong that itquickly masks the information in the original profile. Low-pass Fourier filtering, whilesuppressing such noise, also blurs the signal, overcoming the purpose of sharpening bydownward continuation.Despite the above-mentioned problems, most geophysical experts have long beeninterested in this technique because of its importance to mineral exploration. Furthermore,this method is a fast and cheap way to determine the initial depth of the subsurfacefeatures, especially where there is no other geophysical or well-logging data. A goodanalytical downward continuation process could provide subsurface general images,allowing an enhanced interpretation. Also, analytical downward continuation has theability to determine accurately both the horizontal and vertical extents of geologicalsources.The NFG method nullifies perturbations due to the passage of mass depth duringdownward continuation. The method depends on the downward analytical continuation ofnormalized full gradient values of magnetic data. Analytical continuation discriminatescertain structural anomalies which cannot be distinguished in the observed magnetic field.It can be used to estimate location, depth to the top, and center of the deposit that isapplied also for detecting oil reserviors and tectonic studies. One of the importantparameters to estimate the accurate shape of the deposit is true selection of the harmonicnumber. In this paper, the correct harmonic number is determined and then this methodwill be tested for noise-free and noise-corruption synthetic data. Finally, 2D and 3D ofthis method are applied to real data from Zanjan’s Morvarid mine.The Morvarid mine is located at a distance of 23 km southeast of Zanjan, near Aliabadvillage. Hematite and magnetite are the major minerals in the mine in which magneticexploration has been performed to find anomalies around the mine, near outcrops of theregion. From the IGRF model, the geomagnetic field of this region is calculated at 47680nT (inclination = 54.7°, declination= 4.5°).The results of the method were satisfactory for a dike. After applying the method, ageneral view of deposit structure was obtained that helped us to make a fast interpretation.2D and 3D results of NFG method satisfied the results of trenches and drilling in theregion are under study, as well. The final result of this method shows that the depositbegins from the low depth to approximately less than 100 meters. This modeling yeildedsatisfactory results for drilling in the region. The results of the drillings show that thelowest depth of the deposit is about 6 meters.Finally, 2.5D modeling of th edeposit was done using Modelvision software that hadthe same results. This method can easily be applied for gravity and microgravity data.
    Keywords: Synthetic models, Magnetic data, 2D-NFG, 3D-NFG, Zanjan's Morvarid mine
  • Sarmad Ghader, Khalil Karami, Ahmad Raeen Page 16
    The outer part of the upper atmosphere, the ionosphere, is where free electrons formed by solar X-rays and extreme ultraviolet (EUV) radiation play an important role in radio and satellite communication. Knowledge of the critical frequency and maximum electron density of the F2 ionospheric layer distribution is crucial for ionospheric storm studies and the estimation and correction of propagation delays in telecommunications. It has proven that the F2 ionospheric layer can significantly affect the propagation of radiowaves. The ionosphere can be used to reflect radio signals over long distances. Indeed,the ionosphere is an efficient reflector with frequencies below approximately 30 MHz.Also, it can be useful to study the variability of the F2 ionospheric layer to show that thislayer is affected primarily by space weather phenomena, mostly of solar origin such as thesolar zenith angle, solar ionizing radiation, and the solar cycle. These extraterrestrialphenomena control the ionosphere from above. Some other waves enter the ionospherefrom below and can cause some significant changes in the F2 ionospheric layer.The International Reference Ionosphere (IRI) model is a standard model of the ionosphere supported by the Committee on Space Research (COSPAR) and InternationalUnion of Radio Science (URSI). The IRI model has many practical applications in HighFrequency (HF) predictions. The IRI model offers a description of the average ionosphere. It is a mathematical description of the ionosphere as a function of location,time, altitude, solar activity and geomagnetic activity. Periodic updates to this model areessential to maintaining its prediction ability. A large number of independent studies haveevaluated the IRI model in comparisons with direct and indirect ionospheric measurements, those not used in the model development. A favorable comparison withIRI model is often one of the major goals of ionospheric teams all over the world.In this work, to evaluate the latest available ionospheric model, IRI-2007, we haveobtained hourly monthly values of foF2 and NmF2 over the Tehran area (35.4N,51.2E,52.7dip) during low solar activity period, in which the Rz12 (12-month running averagesunspot number) varies between 7.7 and 15.3 from July 2006 to June 2007. Datameasured using the IPS-71 at the ionospheric station at the Institute of Geophysics at theUniversity of Tehran (35.4N, 51.2E, 52.7dip) were used to perform the calculations.Subsequently, the observed critical frequency and maximum electron density of the F2ionospheric layer is compared with IRI-2007 model predictions. To run the IRI2007model, the URSI and CCIR coefficients were used.Our study shows that values of the foF2 and NmF2 parameters have the highest valuesduring the daytime hours and the lowest values occur at pre-sunrise hours. Our studyshows that the IRI-2007’s ability to predict semi-annual anomalies with a maximumelectron density of the F2 ionospheric layer are most accurate in the summer and less soduring the autumn and spring.In general, the predictions obtained with CCIR and URSI are similar. Our results showthat IRI-2007 can successfully predict the critical frequency and maximum electrondensity of the F2 ionospheric layer. Additionally, our study shows that differencesbetween the foF2(OBS) and the foF2(IRI-2007) remains below 12% during all seasons.The best agreement occurs during the summer and winter, and the largest differences are observed in the spring and autumn. The average percentage deviation of a full yearregisters at approximately 6.5% for CCIR and nearly 8% for URSI coeffecients.Moreover, our results show that the percentage deviation between the NmF2(OBS) andthe NmF2(IRI-2007) remains lower than 21% during all seasons. The total averagepercentage deviation of a full year is approximately 13% for the CCIR coefficient andnearly 16.5% for the URSI.
    Keywords: Ionosphere, critical frequency of F2 ionospheric layer, maximum electron density of F2 ionospheric layer, ionospheric modeling, ionospheric prediction
  • Sarmad Ghader, Khalil Karami, Ahmad Raeen Page 28
    To understand the physics of the F2 ionospheric layer and for ionospheric radio-wavepropagation studies, accurate values of the peak height of the F2 ionospheric layer(hmF2) are needed. The peak height of the F2 ionospheric layer is the most importantparameter after peak density in high frequency (HF) propagation prediction. Diurnalvariation of hmF2 is controlled by solar radiation and thermospheric winds.Thermospheric winds cause pressures that change the ionosphere at different altitudes.Therefore, hmF2 is a key parameter in studying ionospheric dynamics. In addition, theinteraction between radio waves and charged particles of ionospheric plasma can causesignificant changes in the phase, amplitude and polarization of navigation signals. All ofthese changes depend on the value of the total electron content (TEC) in the ionosphere. Data measured by IPS-71 at the ionospheric station at the Institute of Geophysicsof the University of Tehran from July 2006 to June 2007 were used to perform the calculations. As the real height is difficult to acquire directly from ionograms, the Shimazaki and Bilitza formulations are used to calculate the peak height of the F2 ionospheric layer for the period from July 2006 to June 2007. The most commonly employed mathematical function that depicts the electron density profile in the ionosphere is the Chapman function. In this work, we have used the method presented by Ezquer et.al (1992), in which two Chapman profile expressions are utilizedfor topside ionosphere and bottomside ionosphere, to obtain TEC from ionograms.Furthermore, in the present work, the international reference ionosphere (IRI-2007)model with CCIR coefficients was used to predict the peak height of the F2 ionosphericlayer and the TEC for the period from July 2006 to June 2007. The IRI-2007 model is anempirical models that is widely used to show ionospheric changes. The IRI model is astandard model of the ionosphere supported by the Committee on Space Research (COSPAR) and International Union of Radio Science (URSI). The IRI model has many practical applications in High Frequency (HF) predictions. The IRI model is based on a mathematical description of the ionosphere as a function of location, time, altitude, solaractivity and geomagnetic activity. It has two options for the prediction of the F2, F1 and E layer critical frequencies (CCIR and URSI coefficients). The integration of two Chapman profiles shows that almost 2/3 of the TEC of theionosphere is in the topside ionosphere and almost 1/3 is in the bottomside of ionosphere.Additionally, the daytime values of the TEC show intense fluctuation, while theybecomes smoother in the nighttime. Furthermore, during the daytime values of hmF2computed by the Bilitza method are lower than those calculated by the Shimazakimethod. However, during the nighttime the values of hmF2 computed by Bilitza methodare the as same as those computed with Shimazaki method. In addition, our study showsthat around midnight, the values of hmF2 are greater than those of the daytime.Conversely, there is a downward shift in the F2 peak near sunrise. From morning toafternoon, the hmF2 increases again. In the evening an upward drift of the F2-peak isclear.
    Keywords: Ionosphere, total electron content, peak of the F2 ionospheric layer, ionospheric modeling, ionospheric prediction
  • Farzad Shirzaditabar, Behrooz Oskooi, Mehrdad Bastani Page 38
    There is a set of variables affecting the results of an inversion process. Some effects arenegligible while others are significant. It is important to know these essential variables toset them appropriately. In this study, the effect of change in the number and the thickness of the layers, the trade-off parameter, the number of frequencies and frequency content of the signals used for the inversion are studied. Occam’s inversion is employed toreconstruct the resistivity and/or conductivity of the assumed layers.The thickness and number of layers can affect the recovered model. The best way tochoose the number of layers is to increase it until the fitness error flattens. The errordecreases, significantly with the inclusion of the first additional layer then in increasinglylesser degrees with subsequent additions, until it reaches a relatively constant level. Thenumber of layers at which it first reaches this constant level is assumed to be the bestnumber. As the number of layers is increased, the original model is modified slightly. Onthe other hand, the EM signal strength drops exponentially with distance. Hence, it isbetter to increase the thickness of the lower layers to overcome this decrease. Experienceshows that logarithmically increasing thicknesses result in better models. However, if thesufficient number of layers has been chosen, the change in thickness cannot affect therecovered model significantly because a thick layer can be estimated as a sum of thinnerlayers. The trade-off parameter has a critical effect on model parameters. It controls whether more weight is given to minimize the norm of the data misfit or model norm. When this parameter is large, the inversion process tends to produce a smoother model and the data misfit becomes less important. On the other hand, when it is small, the data misfit takes over regardless of a priori information. Generally speaking, the best trade-off parameter is considered to be that at which the data fit is satisfying. The results of this paper show that the effect of the changes on the trade-off parameter is significant and if one chooses it inappropriately, the estimated model will fail to represent the true model.It is clear that the inversion response depends on the number of data used. The moredata used, the better the model produced. The values of frequencies used are alsoimportant because high frequency data can have information only about surface layerswhile low frequency data have more information from deeper layers. The effect of thenumber and values of the frequencies was studied by changing or removing high/lowfrequency. The results show that the change in frequency content causes a considerableeffect on the resolution of inversion. We also studied the effect of the changes of these parameters on the results of inverting a real data set and the results confirm the effects described in the models recovered. In brief, we can say that the effects due to changes in the number and the thickness of layers are negligible, but the effects of changes in the trade-off parameter and the number of frequencies are significant.
    Keywords: Airborne electromagnetic, trade-off parameter, Occam's inversion, nonuniqueness
  • Hassan Bakhshandeh Amnieh, Moein Bahadori Page 51
    Ground vibration is an inevitable consequence of blasting operations in open pit miningand civil engineering projects. A large amount of energy is released in every blastingexercise in the form of wave propagation, which can cause serious damage to thesurrounding environment. Safe design of blasting for underground structures andtunneling are nowadays carried out mainly based on the permissible peak particle velocity(PPV), which has become a major criterion in setting out the appropriate safety standardsenvisaged to prevent structural damage near such operations. Many published studieshave produced correlations for PPV prediction using experimental data The GotvandOlya Dam is one of the major civil engineering projects in the last thirty years in Iran, constructed as the last dam on the Karoon River with the aim of increasingenvironmentally friendly electrical energy of the country, seasonal flood control in theprovince, and a supply of agricultural water for the strategic farming grounds ofKhoozestan. The geological formations of Gotvand include the two main formations ofBakhtiyari and Aghajari. The existence of discontinuities in these formations as well asjoint sets and their low inherent strength caused a number of challenges in blasting designoperations. This dam is 30 km north west of Shoshtar in the Khoozestan province, and 12km away from Gotvand. In this study, 16 records of 3 components produced from 4 blastswere obtained using 4 seismographs of the type PG-2002 at Intac and surge tanks of theGotvand Olya Dam in order to investigate their effects on underground structures. Thethree-component seismometers were of the GS-11D type and the records were analyzedusing DADISP software. The explosion materials used were ANFO and dynamite, andthe maximum weight of the explosions per delay in the Intac and surge tank were in therange of 32.0 to 343.3 kg. The positions of the seismometers were in the range of 56.2 to 145.5 meters away from the centre of blast blocks. The permissible peak particle velocity was taken from the Korean Institute of Geology, Mining and Materials. Using the scale distance, an exponential equation based on the cubic root of the charge weight per delay and coefficient correlation of 85% was proposed for predicting the PPV. In thisrelationship, the geological coefficients of the Gotvand area were estimated to be 20.339and -3.08. Using a genetic algorithm, an improved coefficient correlation between theexperimental and predicted PPV of 89% was obtained. The results from the geneticalgorithm applied for the coefficients of a, b, and n in the equation of PPV=b(d/wn)a were -9.286849, 9.769703 and 0.745959, respectively. Considering this proposed relationship,the minimum distance of 56.2 m to the centre of the blast block and the permissible peak particle velocity of 254 mm/s for a 10 day old concrete, the maximum charge weight per delay was found to be 254.4 kg.
    Keywords: Blasting, ground vibration, peak particle velocity, genetic algorithm
  • Amin Roshandel Kahoo, Ali Najati Kalateh Page 61
    The quality of seismic data varies tremendously, from areas where excellent reflections(or refractions) are obtained to areas in which the most modern equipment, complex fieldtechniques, and sophisticated data processing do not yield usable data. Between theseextremes, lie most areas in which useful results can be obtained. Seismic records aregenerally affected by various types of noise, such as ground rolls, multiples, randomnoise, and reflection and reflected refraction from near surface structures. Random noiseresultiing from random oscillation during data acquisition is one of the most importantand harmful noises that exists in seismic data over all times and frequencies. Many effortshave been made to remove this type of noise from seismic data. The predictive filter is anordinary method commonly used for random noise attenuation from seismic data. Thisfilter can be used in various domains, such as the f-x domain (Haris and White, 1997) andthe discrete Cosine domain (Lu and Liu, 2007). Jones and Levy (1987) removed events which were not coherent trace-to-trace events by means of the Karhunen-Loevetransform. The empirical mode decomposition (EMD) method is an algorithm for the analysis of multicomponent signals that breaks them down into a number of amplitude and frequency modulated zero-mean signals, termed intrinsic mode functions (IMFs). An IMF must fulfill two requirements: (1) the number of extrema and the number of zero crossings are either equal or differ at most by one; (2) at any point, the mean value of the envelope defined by the local maxima and the envelope defined by the local minima is zero. In contrast to conventional decomposition methods such as wavelets, which performthe analysis by projecting the signal under consideration onto a number of predefinedbasis vectors, EMD expresses the signal as an expansion of basic functions that aresignal-dependent and estimated via an iterative procedure called sifting. Apart from thespecific applications of EMD, a more generalized task in which EMD can prove useful issignal denoising (Kopsinis and McLaughlin, 2009). When EMD is used for denoising, theproblem is to identify properly which IMFs contain noise characteristics. Certain modeswill consist mainly of noise, whereas other modes will contain both signal and noisecharacteristics. In the case of white Gaussian noise, the noise-only energy of the modesdecreases logarithmically. The first mode, carrying the highest amount of noise energy,will consist mainly of noise, and the effect of noise should gradually weaken with highermodes. In this paper, a new signal denoising method based on the empirical modedecomposition framework is used to suppress random noises in seismic data. A Noisysignal is decomposed into oscillatory components (IMFs). The empirical modedecomposition denoising method involves filtering each intrinsic mode function andreconstructing s the estimated signal using the processed intrinsic mode functions. Thedirect application of wavelet-like thresholding to the decomposition modes is, inprinciple, wrong and can have catastrophic consequences regarding the continuity of thereconstructed signal. This arises as a result of the special attributes of IMFs; namely, theyresemble an AM/FM modulated sinusoid with zero mean. Consequently, we used theinterval thresholding method instead of direct theresholding method to denoise seismicsignal. the efficiency of the proposed method was tested on both synthetic and real seismic data. In every case, results show that the denoising algorithm can suppress random noise significantly.
    Keywords: Random noise suppression, empirical mode decomposition, intrinsic mode function, interval thresholding
  • Nafiseh Pegahfar, Abbas-Ali Ali-Akbari Bidokhti, Peiman Zawar-Reza Page 69
    Since, the Monin-Obukhov similarity theory (1954) (MOST) has been investigated innumerous studies, especially for the atmospheric surface layer. This theory provides alow-cost method to estimate non-dimensional turbulence intensity and dimensionlesswind gradients that are the bases for the dispersion models. Therefore, this theory hasbeen examined for many surface types, such as water, forest, rural, and urban areas tovalidate the predicted similarity relations.Since the similarity relations were often found for neutral stratification, somemodifications need to be made in order to make them applicable for the other stabilityconditions and, hence, some stability correction functions are applied.The hypothesis of constant surface fluxes with height as a basic assumption of MOST,makes it unpractical for terrains such as forests and urban areas, over which surface fluxesvary horizontally and with regard to height. For these terrains, the local scaling approachwas applied to solve this problem. Similarity functions derived using local scaling wereexamined in numerous experiments and showed good agreement with observationalresults.In this paper, the applicability of MOST was studied over an urban area with complextopography (Tehran) and with a rough sublayer as the lowest part of the surface layer. Forthis, we used data measured by a Sodar (model PA1) located at the Institute ofGeophysics of the University of Tehran for the first 8 months of 2007. Sodar measuredthe speed and direction of wind, standard deviations of three components of the wind, andmomentum fluxes. Also, data from a 100 m tower 150 m away from the Sodar positionwere used. This tower is equipped with four 2D sonic anemometers at 2, 10, 45 and 100m, which measure the speed and direction of wind and the temperature. To validate Sodardata, the u and v components of the wind at 45 m from Sodar were compared with thosefrom the tower at 45 m. The results illustrate good agreement and show similar trends.The first aim of this research was to determine whether the similarity function can befitted to the non-dimensional wind gradient and standard deviations of three componentsof wind. Toward this end, non-dimensional wind gradients and dimensionless turbulentintensities were studied against the stability parameters which were calculated using thelocal similarity approach. Results show that MOST with the local scaling approach can beapplied over this terrain. Therefore, similarity functions for these parameters werecalculated.The second aim of this study was to compare calculated emperical constants for thisterrain with that of previous results that were made over various surface types and fordifferent stability conditions. To achieve an accurate comparison, neutral stratificationswere also studied.The results indicate that emperical constants for the non-dimensional wind gradientand turbulent intensities over Tehran and in the rough sub-layer were larger than those ofother surface types, including those over flat urban areas. This outcome reveals that theknowledge of the effect of Tehran topography, which may have a great influence on airpollution for this city, may be important.Different universal similarity functions and large emperical constants imply thatapplying results from other terrains to predict wind and air pollution over a city as largeand heterogeneous as Tehran may lead to significant errors. The estimated constants forthe empirical universal similarity functions found in this work appear to be necessary forapplications in dispersion studies for Tehran.
    Keywords: Surface layer, roughs sub-layer, Monin-Obukhov theory, standard deviation of wind, non-dimensional wind gradient
  • Mohammad Rasool Nikbakhsh, Mirsattar Meshinchi Asl Page 86
    Self-potential (SP) prospecting is one of the oldest geoelectrical methods, and it is stillused in many fields of applied geophysics. The SP measurements refer to that part of thenatural electric field which is stationary in time, or nearly so, and whose current sourcesystem is generated and sustained by phenomena occurring underground withingeological structures. From the physical point of view, the common aspect of the manysource models is an electrical charge polarization is setup, which is responsible forelectrical current circulation in conductive rocks. Hence, the detected SP anomalies aresimply the surface evidence of a more or less steady state of electrical polarization (Abdelrahman et al., 1999). The two-dimensional inclined sheet model can be useful inquantitative interpretation of SP data measured in a small area over a buried structure.Estimating the depth upper edges and the dip of a two-dimensional inclined sheet fromself-potential anomalies measured perpendicular to the strike of the structures has drawnconsiderable attention. The advantages of the fixed geometrical methods over the 2-D and3-D continuous modeling are that they require no current density, and the resistivity andrough estimation on depth and the interpretation of isolated SP anomalies is fast andaccurate. Many of the geological structures in mineral exploration can be classified intofour categories: spheres, vertical cylinders, horizontal cylinders and inclined sheets. Thesefour simple geometric forms are convenient approximations of common geologicalstructures often encountered in the interpretation of SP data. The models may not beentirely geologically realistic, but the approximate equivalence is usually sufficient todetermine whether the form and magnitude of calculated SP effects are close enough tothose observed to make the geologic interpretation reasonable. Evaluation of the depthand the width of a 2D plate from self-potential (SP) anomalies measured perpendicular tothe strike of the structure has attracted considerable attention. Several methods have been proposed and discussed by many researchers to interpret the self-potential anomalies caused by 2D inclined plates, including, for example, logarithmic curve matching(Murthy and Haricharan, 1985) and the analysis in the frequency domain using theFourier transform (Rao et al., 1982). In this paper, a new method has been developed toestimate the depth and the half-width of a 2D inclined plate with a self-potential anomaly.This method is the second- moving average for successive window lengths to determinethe depth and half-width of two-dimensional inclined plate. For a fixed window length,the depth is determined iteratively using the solution of a nonlinear equation with theiterative Newton Raphson method for each half-width value (Stanley, 1977). Thecomputed depths are plotted against the half-width values representing a continuouswindow curve. This method can be used for two model and synthetic data with andwithout random noise. After adding 10% random error in the synthetic data, themaximum error in model parameters is less than 3%. The problem of determining theplate parameters from self-potential data of short profile length can be solved using thesecond-moving average method. The method of window curves has been extended usingthe second-moving average self-potential anomaly to determine the depth and half-widthof an inclined plate.
    Keywords: Self-potential, second -moving average, window curves, inclined plate, depth, the half-width
  • Sakineh Khansalari, Majid Mazraeh Ei Farahani, Majid Azadi Page 97
    In the study of atmospheric phenomena, different types of parameters are generallyconsidered. The type of parameter applied depends mostly on the scale and severity of the phenomena under consideration. Weather systems with fast rotating wind, such astropical storms or tornadoes, are among the most destructive weather-related phenomenon. Study of these kinds of phenomena and recognition of the causes of theirintensification or weakening are very important. Quantities that are measured in this typeof system vary and the calculations yield different results and properties depending on themethod used. There is a direct relationship between type of system and severity to thethermodynamic instability of the atmosphere in the region of the occurrence. It is typicalto use certain parameters for studying atmospheric instabilities, such as vorticity,potential vorticity. However, these parameters are gauges for measuring the power of asystem related to the value of the instability of a system suitable for a straight flow. Tomeasure the energy of activity of system with a severely rotating flow it is suggested touse another quantity, that of helicity. Thus, surveying sources and sinks of helicity ishighly important in dealing with vortices and hurricanes and rotating systems in general.Besides helicity, helicity flux is also a very valuable tool for studying rotating flows. Themathematical relationship between helicity and helicity-flux are presented in this study.Also, a new method of computing helicity flux is discussed and the values of helicity intwo methods are compared.In theory, the dissipation of helicity occurs in the boundary layer. In fact, thedissipation aspect of helicity involved in the frictional process in the boundary layer ismuch higher than the production of it in buoyancy process. Consequently, there is aseparating surface in the boundary layer above the surface of which the production ishigher than the loss by friction effect, and below it the friction is much higher than thatproduced by buoyancy. The helicity produced in the upper layer moves downward intothe area wherein the turbulent viscose force of the surface is dissipated due to friction.Since the stationary condition of the vortex is used in calculating helicity,, the downwardflux of helicity is a highly accurate parameter of the stationary turbulent vortex.This study calculates the downward helicity flux, sources and sinks of helicity of thehurricane Gonu. Data of hurricane Bonnie were utilized as both a comparison andreference for the study of hurricane Gonu. The results show that dynamical buoyancy isthe main factor in producing helicity and surface friction and the main dissipating factor.Therefore, an increase in dynamical buoyancy or reduction in dissipative friction resultsin the regeneration or enhancement of a rotating system. Furthermore, the increase (ordecrease) of the magnitude of helicity results in an increase (or decrease) in the height ofthe layer at which the maximum helicity flux occurs. It is suggested that the maximumhelicity flux occurs at the top of viscous turbulence boundary layer.
    Keywords: Helicity, helicity flux, boundary layer, buoyancy force, friction force, vortices flow
  • Masoome Amighpey, Behzad Voosoghi, Siyavash Arabi Page 116
    One of the existing problems in geodetic control networks for computing displacement vectors is finding a fixed station which has no deformation within the observation interval. This problem comes from the datum-dependency characteristic of the displacement vector. Accordingly, extraction of invariant parameters of the deformation tensor in geodetic control networks which are independent from datum has an effective role in the accurate interpretation of results in geodynamic studies. In height networks, change of the curvature tensor and its associated invariants have been introduced for assessing vertical deformation. The summation and difference of elongation of change of the curvature tensor are two common invariants of this tensor. Additionally, changes of the Gaussian and mean curvature parameters are two other key invariants with physical interpretations that are used to describe deformation behavior. Although many methods have been proposed to calculate deformation tensor fields on the earth’s surface, few refer to the actual surface of the Earth. Most of these methods formulate the problem on reference surfaces such as projection planes or spheres and, consequently, their results suffer from possible effects of inaccuracy and incompleteness of the mathematical models of projections. In the present study, we used a method of differential geometry that allows deformation analysis of the actual surface of the Earth for a more reliable and accurate estimate of the surface deformation measures. The method takes advantage of the simplicity of 2-dimensional spaces versus 3-dimensional spaces without losing or neglecting information and effect of the third dimension in the final results. Khorasan is a large province in the northeast of Iran where over-extraction of water resources for industrial and agricultural purposes has caused an extensive subsidence in some cities such as Mashhad, Neyshabour and Kashmar. Since the employment of first-order precise leveling network of Iran, which has been utilized twice for over two centuries in these cities, precise leveling has been one of the observations methods for measuring the subsidence. On the other hand, GPS and InSAR observations in these areas revealed the extent and magnitude of the subsidence. In this paper, we estimated the invariant parameters of the tensor of curvature using precise leveling observation to study the height deformation behavior of the province of Khorasan in these subsidence areas. We computed the invariant parameters of change of curvature tensor relative to two distinct datums to evaluate their datum-independency characteristic as well as studying subsidence behavior. Obtained results relative to 2 datums show the unique value and pattern for each parameter and reveal the subsidence area. The computed maximum mean curvature change was approximately, and the maximum Gaussian curvature change was approximately, which confirms the high rate of subsidence in this area. This application reveals the capabilities and strengths of the proposed method and suggests the superseding of these invariant parameters with other geodetic network adjustment results, especially in areas in which a fixed datum is undefined.
    Keywords: Datum, geodetic control networks, invariant, Subsidence