فهرست مطالب

نشریه علوم و فنون نقشه برداری
سال چهارم شماره 2 (پیاپی 14، آبان 1393)

  • تاریخ انتشار: 1393/11/01
  • تعداد عناوین: 20
|
  • داود اکبری*، عبدالرضا صفری، سعید همایونی صفحات 1-10
    ویژگی ها و پیچیدگی های داده های حاصل از سنجنده های فراطیفی باعث شده است که روش های نوین و پیشرفته تر آنالیز تصاویر سنجش از دور به منظور استخراج اطلاعات دقیقتر و کاملتر از داده های فراطیفی مورد توجه قرار گیرند، یکی از آنالیزهایی که بر روی تصاویر فراطیفی انجام می شود، آشکارسازی هدف است. روش های آشکارسازی هدف در تصاویر فراطیفی، معمولا بر اساس ویژگی ها و اطلاعات طیفی صورت می گیرد. در این پژوهش برای بهبود دقت آشکارسازی طیفی ساختمانهایی با پوشش خاص در مناطق شهری، دو استراتژی ترکیب الگوریتمهای آشکارسازی به کمک روش ANFIS (Adaptive Neuro-Fuzzy Inference System) و آشکارسازی طیفی- مکانی بکار گرفته شد. در آزمونهای صورت گرفته بر روی دو تصویر فراطیفی مختلف، ابتدا شش الگوریتم آشکارسازیSAM (Spectral Angle Measure)، SCS (Spectral Correlation Similarity)، SID (Spectral Information Divergence)، JMD (Jeffries-Matusita Distance)، CEM (Constrained Energy Minimizing) و CMFM (Covariance-based Matched Filter Measure) پیاده سازی گشته سپس با استفاده از روش ANFIS و به صورت یکجا، نتایج آشکارسازی با هم ترکیب گردید. سپس تاثیر داده های وابستگی مکانی پیکسل ها، در کنار داده های طیفی آنها، روی شش الگوریتم آشکارسازی طیفی بررسی گردید و عمل ترکیب الگوریتمها در این حالت نیز تکرار شد. نتایج ارزیابی های کمی و کیفی آزمونها بر روی دو تصویرفراطیفی نشان داد که استفاده از دو استراتژی فوق به صورت همزمان مقدار ضریب کاپا را به میزان 3/6 درصد برای تصویر اول و 6/9 درصدبرای تصویر دوم در مقایسه با الگوریتم آشکارسازی SAM بهبود داده است.
    کلیدواژگان: تصاویر فراطیفی، آشکارسازی هدف، آشکارسازی طیفی و مکانی، ادغام اطلاعات
  • محمد امین قنادی*، محمد سعادت سرشت صفحات 11-24
    با توجه به کاربردهای فراوان تصاویر SAR در تولید مدل رقومی زمین، بررسی میزان جابه جایی سطح زمین و کشف تغییرات می توان به میزان اهمیت بحث تناظریابی در تصاویر SAR پی برد. تناظریابی در این تصاویر به علت وجود پدیده های گوناگون هندسی از جمله سایه، همپوشانی و کوتاه شدگی در کنار نویزهای مختلف که مهم ترین آنها نویز اسپیکل می باشد، به مراتب پیچیده تر از تناظریابی در تصاویر اپتیکی است. از این رو ارائه روشی کارآمد جهت انجام تناظریابی این تصاویر می تواند بسیار مفید باشد. در این مقاله ابتدا مراحل روش پیشنهادی توضیح داده شده است. این مراحل شامل کاهش اثر نویز اسپیکل بر روی تصاویر، استخراج عوارض نقطه ای، تخصیص ویژگی به عوارض استخراج شده، تناظریابی محلی و در پایان انجام تناظریابی سراسری می باشد. با توجه به شرایط تصاویر SAR، در مراحل ذکر شده از الگوریتم های موجود در فتوگرامتری و بینایی رایانه بهره برده شده است. در هر مرحله چندین الگوریتم مورد آزمون قرار گرفته و بر اساس مقایسه نتایج بدست آمده بهترین آن در الگوریتم پیشنهادی بکار گرفته شده است. جهت انجام آزمایش از جفت تصویر با طول باز بلند و جفت تصویر با طول باز کوتاه از منطقه جم استان بوشهر استفاده شده است که توسط سنجنده TerraSAR-X اخذ شده اند. نتایج آزمایش ها نشان می دهد که روش پیشنهادی با دقت و اعتمادپذیری بالایی تعداد مناسبی از عوارض نقطه ای در دو تصویر را متناظر می کند. این روش تعداد 211 نقطه با دقت 1.9 پیکسل را برای تصاویر مورد آزمایش با طول باز بلند به ابعاد 700×700 پیکسل و تعداد 1603 نقطه با دقت 1.22 پیکسل را برای تصاویر مورد آزمایش با طول باز کوتاه به ابعاد 400×400 پیکسل متناظر می کند. از این روش می توان جهت انجام coarse matching در تصاویر SAR بهره برد.
    کلیدواژگان: تصاویر SAR، تناظریابی تصویری، استخراج عوارض، نویز اسپیکل، Terra، SAR، X، رادارگرامتری، اینترفرومتری
  • فاطمه ذاکری*، محمد جواد ولدان زوج، محمودرضا صاحبی صفحات 25-35
    نویز لکه در تصاویر راداری منجر به کاهش کسب اطلاعات از این تصاویر می شود. هدف این مطالعه کاهش نویز لکه تصاویر رادار به وسیله ی آستانه گذاری نرم ضرایب کرولت با تاکید بر حفظ لبه است. در الگوریتم پیشنهادی ابتدا نویز ضربی لکه با استفاده از تبدیل لگاریتمی به نویز افزایشی تبدیل شده و سپس تصویر حاصل با استفاده از تبدیل کرولت به فضای کرولت منتقل و ضرایب کرولت بر اساس آستانه گذاری نرم و حدآستانه تطبیقی معرفی شده فیلتر می شوند. آستانه گذاری نرم ضرایب کرولت در قیاس با فیلترهای موجود مانند Frost، Gamma و Kuan، فیلترهای مبتنی بر آستانه گذاری نرم تبدیل موجک و آستانه گذاری سخت ضرایب کرولت نتایج تجربی بهتری را نشان داده (شاخص های میانگین مربع خطا، میانگین مربع خطای نرمال شده و میانگین قدرمطلق خطا به ترتیب 27%،27% و 15% کاهش یافته اند، بعلاوه معیار Equivalent Number of Looks (ENL) افزایش یافته و به ترتیب برای تصاویر RADARSAT1 و ENVISAT 34/27 و 61/3 است). نتایج حاکی از آن است که آستانه گذاری نرم ضرایب کرولت افزون بر توان بالا حذف نویز از تصاویر راداری در حفظ لبه و خصوصیات رادیومتریکی نیز بسیار قدرتمند است.
    کلیدواژگان: تبدیل کرولت، تصاویر رادار، نویز لکه، آستانه گذاری سخت و نرم
  • اصغر میلان لک*، محمد جواد ولدان زوج، مهدی مختارزاده صفحات 37-52
    تشخیص راه ها در مناطق شهری، از اهمیت بیشتری برخوردار بوده و همواره به عنوان یکی از مباحث اصلی در تحقیقات گروه های سنجش از دور مورد توجه قرار گرفته است. با توجه به تنوع خصوصیات طیفی و هندسی و همچنین شباهت طیفی و هندسی پیکسل های راه با سایر عوارض از جمله ساختمان ها، پارکینگ ها و پیاده روها و عدم پیوستگی عوارض راه به علت مجاورت با عوارضی نظیر اتومبیل و درختان، شناسایی دقیق راه های شهری از طریق تصاویر ماهواره ای با مشکلاتی همراه است. از طرف دیگر داده های لایدار با فراهم کردن اطلاعات ارتفاعی، امکان تفکیک راه ها از سایر عوارض مشابه از نقطه نظر طیفی، را فراهم می سازند. بنابراین در تحقیقات مختلف در کنار تصاویر ماهواره ای به منظور تشخیص عوارض مختلف از جمله راه ها بکار رفته اند. در این مقاله از تصاویر ماهواره ای سنجنده QuickBird با قدرت تفکیک بالا و داده های لایدار و نیز بکارگیری آنالیزهای شئ مبنا به منظور تشخیص راه در یک ناحیه شهری با تنوعات گوناگون راه بهره گیری شده است. در روش پیشنهادی یک استراتژی قانون مبنا مبتنی بر تکنیک ماسک گذاری طراحی و مورد استفاده قرار گرفته و برای بهبود نتایج از یک استراتژی تکمیلی مبتنی بر طراحی ویژگی های مفهومی بهره گیری شده است. در نهایت دقت کلی شناسایی کلاس های مختلف %2/89 و ضریب کاپای آن 832/0 بدست آمده است که با توجه به شرایط مختلف و نیز اغتشاشات فراوان بین کلاسی، دقت حاصله رضایت بخش می باشد. نتایج حاصل از این تحقیق، نشان دهنده قابلیت بالای روش های شئ مبنا در تشخیص همزمان گستره ی وسیع و متنوعی از المان های راه در محیط های پیچیده شهری از طریق بکارگیری همزمان داده های تصاویر ماهواره ای با قدرت تفکیک بالا و داده های لایدار می باشد.
    کلیدواژگان: استخراج راه، آنالیزهای شئ مبنا، تصاویر ماهواره ای با قدرت تفکیک بالا، داده های لایدار
  • مریم سجادیان*، حسین عارفی صفحات 53-65
    امروزه پردازش های خودکار و استخراج اشیا از سنجنده های هوابرد به یکی از موضوعات تحقیقاتی مهم در فتوگرامتری تبدیل شده است. سیستم لیزر اسکنر هوایی که معمولا از آن به عنوان لیدار یاد می شود، یک تکنولوژی برتر برای اکتساب داده های سه بعدی مکانی با سرعت و چگالی بالا از سطح زمین است. یکی از مهمترین کاربردهای سیستم لیدار، تولید مدل های سه بعدی شهری است. گام اولیه و مهم برای بازسازی ساختمان ها به عنوان یکی از مهمترین اجزای مدل های شهری، شناسایی و تفکیک داده های ساختمانی از دیگر داده ها نظیر زمین، درختان و پوشش گیاهی است. علاوه بر این، قطعه بندی سقف ساختمان یک گام مهم دیگر در پردازش ابر نقاط ساختمان می باشد. در این تحقیق استخراج ابرنقاط ساختمانی و قطعه بندی سقف ساختمان به صورت همزمان و با استفاده از یک استراتژی چند عامله بر مبنای استفاده از ابرنقاط نامنظم لیدار صورت گرفته است. ابتدا با استفاده از معیارهای ارتفاعی و پالس های برگشتی، نقاط کاندیدای زمینی و گیاهی از نقاط ساختمانی جدا شده اند. سپس با آنالیز طول مثلث های ایجاد شده بر روی نقاط باقیمانده و با استفاده از روش گسترش ناحیه بر مبنای بردار نرمال، قطعات مختلف استخراج می شوند. پس از آنالیز مساحت برای تفکیک قطعات ساختمانی، به منظور شناسایی قطعات متعلق به ساختمان های واحد روشی ابتکاری به نام «گسترش شبکه» پیشنهاد شده است. جهت ارزیابی دقت از تفسیر بصری و مقایسه کمی نتایج با اطلاعات استخراج شده توسط اپراتور انسانی استفاده گردیده است. در این ارزیابی که بر روی داده های مربوط به شهر فایهینجن آلمان انجام شده، روش پیشنهادی در استخراج نقاط سقف ساختمانی به دقت متوسط 93% رسیده است. به طور کلی نتایج موفقیت روش پیشنهادی را در استخراج و قطعه بندی ساختمان ها بدون نیاز به منابع کمکی نظیر نقشه های کاداستر و تصاویر هوایی نشان می دهند. مزیت ویژه روش مطرح، در ساختمان های چندلایه ای با سطوح سقفی موازی است که قطعات حتی با اختلاف ارتفاع خیلی کم (نظیر 10 سانتی متری) به-درستی از یکدیگر تفکیک شده اند.
    کلیدواژگان: لیدار، ابر نقاط، مثلث بندی دلونی، بردار نرمال، قطعه بندی، استخراج ساختمان، قطعات ساختمانی
  • مینا علی صوفی*، بهزاد وثوقی صفحات 67-75
    در مطالعات تغییر شکل پوسته، مدل های آتشفشانی دید با ارزشی از ویژگی های آتشفشان ها و رفتار آن ها را در طول زمان ارائه می دهند. مدل سازی میدان جابجایی با استفاده از مدل های تحلیلی، مستلزم مشخص نمودن پارامترهای ژئوفیزیکی و زمین شناسی مخزن آتشفشان می باشد. بدین منظور طی روندی معکوس با در اختیار داشتن میدان جابجایی حاصل از مشاهدات ژئودتیک به عنوان مسئله مقدار مرزی مدل های تحلیلی، مدل سازی از مخزن ماگمای آتشفشان صورت گرفت. این مدل سازی توسط روش بهینه-سازی تکاملی ژنتیک برای آتشفشان دماوند انجام گرفت. مدل سازی میدان جابجایی برای آتشفشان کمپی فلگری طی سالهای 2000 تا 2001 نیز انجام شد، که در مقایسه با مطالعات گذشته در مورد آن نتایج مطلوبی در برداشت. نتایج مدل سازی میدان جابجایی در مورد آتشفشان دماوند، باقیمانده هایی دور از انتظار (با توجه به بزرگی میدان جابجایی) در بعضی از مناطق، حاصل نمود که نشان-دهنده حضور منابع تغییر شکل دیگری علاوه بر منبع آتشفشانی، در منطقه می باشد. نتایج مدل سازی میدان جابجایی نشان داد، کاهش حجم مخزن ماگمای آتشفشان قرار گرفته در عمق حدودا 6/5 کیلومتری زیر زمین به میزان 001/0 کیلومتر مکعب در سال باعث جابجایی های کوچکی فقط در نواحی نزدیک منبع آتشفشانی می شود. مختصات مسطحاتی مدل سازی شده مرکز منبع 999/4831 کیلومتر شرقی و 536/31328 کیلومتر شمالی در سیستم تصویر لامبرت و مقدار خطای مربعی متوسط نتایج معکوس (RMSE) 2 میلی متر حاصل گردید.
    کلیدواژگان: میدان تغییر شکل آتشفشان، مدل سازی میدان جابجایی، آتشفشان دماوند، مدل سازی میدان جابجایی، بهینه سازی تکاملی، الگوریتم ژنتیک، مدل سازی مخزن ماگما
  • ساسان محمدی، محمودرضا دلاور* صفحات 77-86
    امروزه به دلیل محدودیت منابع طبیعی، ارزش بالای زمین، رشد سریع جمعیت وگسترش سریع شهرها، پیش بینی کاربری آینده ی اراضی برای مدیران، برنامه ریزان و متخصصان محیط زیست از اهمیت بسیار بالایی برخوردار شده است؛ زیرا تغییر در کاربری اراضی باعث تاثیر بر اکوسیستم و در نتیجه تهدید منابع حیاتی مورد نیاز انسان می شود. مدلسازی و تحلیل پدیده توسعه شهری، اطلاعات جامعی در اختیار مدیران و برنامه ریزان شهری قرار می دهد تا با توجه به این پدیده، برنامه ریزی بهتر، علمی تر و منطقی تری انجام دهند. هدف اصلی در این تحقیق، مدلسازی مناطق توسعه یافته شهری شهر سنندج با استفاده از تصاویر ماهواره ای، سیستم اطلاعات مکانی و رگرسیون منطقی می باشد. شهر سنندج در طی دهه های اخیر رشد جمعیت سریعی داشته است و وضعیت جغرافیایی منطقه و قرار گرفتن این شهر در قسمتهای کوهپایه ای و کمبود زمین های با شرایط توپوگرافی مناسب جهت گسترش شهر باعث انتخاب این شهربرای منطقه مورد مطالعه می باشد. روش رگرسیون منطقی به دلیل ساختار ساده، توانایی تفسیر پذیری بالای مدل و همچنین عملکرد مطلوبی که در مدل سازی های محیطی از جمله فرایند توسعه شهری از خود نشان داده است به عنوان روش پیشنهادی جهت مدلسازی این فرایند در نظر گرفته شده است. پارامترهای مورد استفاده در این تحقیق شامل فاصله از مناطق توسعه یافته، فاصله از راه های اصلی، فاصله از فضای سبز، ارتفاع، شیب، فاصله از گسل، فاصله از مراکز نواحی شهر و همچنین تعداد سلول های شهری در همسایگی 3*3 شهری می باشد. همچنین مدلسازی توسعه شهری با شبکه عصبی مصنوعی نیز انجام شده است که در پایان به مقایسه عملکرد دو مدل می پردازیم. معیار های کاپا، درجه تناسب و درصد تناظر صحیح جهت ارزیابی عملکرد مدل های پیشنهادی به کار گرفته شده اند که برای روش رگرسیون منطقی به ترتیب 7398/0، 6345/0 و 70/93% و در روش شبکه عصبی مصنوعی برابر با 7316/0، 6249/0 و 55/93% می باشند.
    کلیدواژگان: توسعه شهری، مدلسازی، تغییر کاربری اراضی، رگرسیون منطقی
  • میثم عفتی*، محمد علی رجبی، فرشاد حکیم پور، شاهین شعبانی صفحات 87-102
    یکی از مشکلات اصلی حمل ونقل جاده ای در کشور، تصادفات است. جهت مدیریت و کاهش تصادفات در یک محور برون شهری لازم است که متولیان ایمنی راه اطلاعات کاملی از عوامل تاثیرگذار بر تصادفات آن محور در اختیار داشته باشند. با توجه به تحقیقات صورت گرفته، شناسایی انواع تصادفات یک محور و عوامل موثر بر وقوع آن ها یکی از راهکارهای موثر در کاهش تصادفات جاده ای برون شهری است. این مطالعه یک استراتژی تلفیقی را جهت بررسی انواع تصادفات و عوامل مکانی موثر بر تمرکز تصادفات در راه های دوخطه دوطرفه برون شهری با استفاده از تحلیل های مکانی و روش خوشه بندی تجمعی سلسه مراتبی بر پایه Mean-K، ارائه می نماید. روش پیشنهادی با ایجاد یک پایگاه داده مکانمند متشکل از داده های تصادفات و اطلاعات راه و محیط مجاور آن در محور قزوین- رشت (ایران) مورد بررسی و ارزیابی قرار می گیرد. نتایج نشان می دهد که دقت خوشه بندی داده های تصادفات به روش پیشنهادی، 7/6 درصد بیش از روش تجمعی سلسه مراتبی و حدودا 10 درصد بیشتر از روش Mean-K است. تحلیل خروجی روش پیشنهادی با استفاده از توابع مکانی و الگوریتم های استخراج الگوی داده کاوی ضمن بیان نوع و خصوصیات تصادفات محور در نواحی تمرکز تصادفات، تاثیرات طرح هندسی راه، ترافیک، توسعه شهری، کاربری ها و عوارض اطراف راه را بر تصادفات آشکار می سازد.
    کلیدواژگان: ایمنی راه، تصادف، سیستم های اطلاعات مکانی (GIS)، خوشه بندی تجمعی سلسه مراتبی بر پایه Mean، K، الگوریتم Separate، and، Conquer
  • سیده فریناز میرمحمدیان*، جمال عسگری، وهاب نفیسی صفحات 103-112
    یکی از مباحث مهم در ژئودزی تعیین موقعیت نقاط است که به دو روش نسبی و دقیق انجام می شود. روش تعیین موقعیت مطلق دقیق (PPP) که در دو دهه اخیر گسترش یافته و مزایای ویژه ای نسبت به روش نسبی دارد، هنوز نتوانسته به دقت روش-های تعیین موقعیت نسبی برسد. عمده ی مشکلات این روش مربوط به مدل های پردازش، ابهام فاز غیرصحیح و دقت برآورد اثر تروپوسفر است. تاکنون تلاش های زیادی برای اصلاح مدل ها و کالیبراسیون بایاس فازهای ماهواره ای صورت گرفته است. در این مقاله هدف برآورد هرچه دقیق تر تاخیر تروپسفری و در نتیجه افزایش دقت تعیین موقعیت با روش تعیین موقعیت مطلق دقیق است. برای این منظور تاخیر توسط پردازش PPP محاسبه می گردد، سپس سعی می شود بخشی از تاخیر که این روش نتوانسته مدل کند، توسط روش ردیابی اشعه محاسبه و اعمال گردد تا تعیین موقعیت به دقت بالاتری برسد. امواج منتشره از ماهواره ها تحت تاثیر تروپوسفر دچار تاخیر می شوند. مدل کردن این تاخیر در روش های تعیین موقعیت برای دستیابی به دقت بالا، بسیار مهم است. روش های مختلفی مانند روش ردیابی اشعه و استفاده از توابع نگاشتی مثل GMF، VMF، که تاخیر زنیتی را به تاخیر مایل تبدیل می کند، برای برآورد این تاخیر موجود است. در این مقاله تاخیر مایل تروپوسفری با استفاده از مدلهای عددی هواشناسی توسط ردیابی اشعه محاسبه شده است و اختلاف آن با تاخیرات مایل تروپوسفری بدست آمده به سه روشی که به تفضیل شرح داده خواهد شد)با استفاده از تابع نگاشت GMF و تاخیر زنیتی بدست آمده از روشPPP) به فایل های RINEX اعمال شده است. سپس برای فایل های RINEX اصلاح شده، پردازش PPP انجام شد. در واقع هدف ساختن فایل مشاهداتی RINEX جدیدی است که تاخیر مایل حاصل از PPP به جواب ردیابی اشعه نزدیک باشد. سپس اثر این اصلاح مشاهدات را در مختصات گیرنده حاصل از این روش ها بررسی می نماییم. با مقایسه ی نتایج با مختصات ITRF نقطه، مشخص شد که اعمال اختلاف بین تاخیر مایل حاصل از حاصلضرب تاخیر زنیتی بدست آمده از روش PPP در 88% تابع نگاشت هیدروستاتیک GMF و 12% از تابع نگاشت غیرهیدروستاتیک با تاخیر حاصل از روش ردیابی اشعه، به فایل های مشاهداتی، باعث بهبود تعیین موقعیت مطلق دقیق می شود.
    کلیدواژگان: ردیابی اشعه، مدل های عددی هواشناسی، تعیین موقعیت مطلق دقیق
  • ناصر عبدی*، حمیدرضا نانکلی صفحات 113-121
    طی سالیان گذشته، استفاده از GPS به عنوان یک ابزار منحصربه فرد، در مطالعه چگونگی گذر امواج الکترومغناطیس ازلایه های مختلف اتمسفر به خصوص یونسفر مطرح بوده است. در حال حاضر یونسفر عمده ترین منبع خطا در موقعیت یابی با GPS محسوب-گردیده و میزان تاثیر آن روی انتشار موج بستگی به مقدار TEC و فرکانس سیگنال دارد. در این مقاله تغییرات زمانی-مکانی TEC در ایران با استفاده از مشاهدات حدود 40 ایستگاه IPGN مورد مطالعه قرار می گیرد. مدلسازی منطقه ای یونسفر، برآورد مقادیر TEC و محاسبه DCB گیرنده ها با استفاده ازتوابع هارمونیک کروی تا درجه و مرتبه 6 صورت گرفته و برای حذف اثرات هندسی همچون بایاس های ساعت ماهواره و گیرنده، تروپوسفر و... از اختلاف مشاهدات کد هموارشده فرکانس اول و دوم استفاده شده است. کشف مشاهدات اشتباه و جهش های فازی و در نهایت هموارسازی مشاهدات کد با استفاده از مشاهدات فاز موج حامل در مراحل پیش پردازش انجام می شوند. در این مقاله مراحل محاسباتی و ترسیمی به ترتیب با نرم افزارهای برنیز و متلب انجام شده اند. پردازشهای انجام شده مربوط به 10 روز از سال 2012 و 3 روز از سال 2013 مطابق با اول هر ماه از تقویم خورشیدی بوده که روزهای اول هر فصل را شامل شده و مطابق با نزدیکترین دوره بیشینه شدن اثر لکه های خورشیدی در افزایش مقادیر TEC هستند. نتایج محاسبات در بررسی تغییرات زمانی در نقاط مختلف ایران نشان می دهند که بیشترین و کمترین اثر یونسفر به ترتیب در فصل بهار و زمستان و بیشینه مقدار TEC در طول شبانه روز مربوط به حدود ساعت 14 به وقت محلی است. همچنین در مطالعه تغییرات مکانی یونسفر، تغییرات زیاد مقدار TEC با تغییر عرض جغرافیائی به خوبی مشهود است. به عبارت دیگر بیشترین و کمترین مقدار TEC در ایران به ترتیب مربوط به پائین ترین و بالاترین عرض جغرافیائی هستند. همچنین در این تحقیق مقدار TEC حدود 100TECU در فصل بهار 2012 مشاهده شد که می تواند باعث حداکثر خطای به میزان 75 متر روی طول ماهواره-گیرنده برای ماهواره نزدیک به افق و فرکانس دوم گردد.
    کلیدواژگان: یونسفر، GPS، TEC، TECU، DCB
  • عبدالرضا صفری، محمدعلی شریفی، عباس بحرودی، سوران پرنگ* صفحات 123-137
    ناپیوستگی موهو مرز بین پوسته و گوشته ی بالایی است که تفاوت دو محیط را با تغییرات در سرعت لرزه ای، ساختار شیمیایی، مواد تشکیل دهنده و مانند آن آشکار می سازد. هدف این تحقیق یافتن عمق موهو در محدوده ی زاگرس و برآوردی از ضخامت پوسته به روش واهمامیخت اویلر است. روش واهمامیخت اویلر یک روش خودکار برای برآورد عمق، شکل و مکان منبع های مغناطیسی و گرانی است که اساس آن به کارگیری مشتق های میدان در معادله همگن اویلر می باشد. در به کار گیری روش واهمامیخت اویلر تعیین ضریب ساختار و طول پنجره ی برآوردگر از پارامتر های بسیار مهم هستند که به شدت جواب ها را تحت تاثیر قرار می دهد. در این تحقیق ابتدا با استفاده از ضرایب هارمونیک کروی مدل ژئوپتانسیلEIGEN-GL04C، آنومالی جاذبه هوای آزاد در محدوده ی °53.75-°48.25=λ و°34.75-°29.25=φ دریک گرید °0.25×°0.25 محاسبه شد، سپس با استفاده از داده های آنومالی جاذبه هوای آزاد و به کارگیری روش واهمامیخت اویلر عمق موهو به ازای ضریب ساختار های مختلف و اندازه پنجره های متفاوت برآورد شد و بهترین ضریب ساختار و اندازه پنجره از مقایسه عمق برآورد شده به روش واهمامیخت اویلر و عمق به دست آمده از روش تابع انتقال گیرنده(مطالعات لرزه ای) در 14 ایستگاه لرزه ای موجود در منطقه، تعیین گشت و نتایج به دست آمده با مدل CRUST 2.0 مقایسه شد.بر اساس نتایج به دست آمده می توان گفت که به ازای ضریب ساختار 0.5 و اندازه پنجره 40 تا 45 کیلومتر بهترین جواب را در تخمین عمق موهو در محدوده ی مورد نظر خواهیم داشت.
    کلیدواژگان: واهمامیخت اویلر، عمق موهو، آنومالی جاذبه هوای آزاد، مدل ژئوپتانسیل، ساختار پوسته
  • امید معماریان سرخابی*، علیرضا نادری، سید روح الله عمادی صفحات 139-148
    از آنجائیکه تصحیح توپوگرافی جاذبه نقش مهمی در تعیین ژئوئید دقیق به ویژه در مناطق ناهموار دارد، از این رو در این مقاله به بررسی روش های مختلف این تصحیح و اثرات آن بر روی شتاب ثقل وارتفاع ژئوئید پرداخته شده است. بدین منظور منطقه ی شمال غرب ایران با محدوده ی عرض جغرافیایی 40.5 ≥ φ ≥ 35.5 و طول جغرافیایی 49.5 ≥ λ ≥ 44.5 انتخاب شده است. وبر پایه روش های معکوس رودزکی، روش دوم متراکم سازی هلمرت، مدل باقیمانده ی توپوگرافی، روش ایزوستازی آیری-هیسکانن و پرت-هایفورد، تاثیرات مستقیم و غیر مستقیم توپوگرافی بر روی شتاب ثقل و ارتفاع ژئویید بدست آمده است. موجود در منطقه نشان می دهد که ژئوئید بدست آمده از روش معکوس رودزکی از نظر دقت قابل مقایسه با روش هلمرت بوده همچنین اثرات غیر مستقیم این تصحیح بر روی ارتفاع ژئوئید صفر می باشد. لذا می تواند به عنوان روشی مناسب مورد استفاده قرار گیرد.
    کلیدواژگان: تصحیح جاذبی، ژئویید، رودزکی، هلمرت
  • علیرضا آزموده اردلان*، فرهنگ احمدی گیوی، محمد هادی رضوانی صفحات 149-155
    یکی از موضوعات حائز اهمیت در هیدروگرافی، تعیین پارامترهای وضعیت شناور، رول، پیچ و هدینگ؛ می باشد. بطور معمول با نصب سنجنده تعیین وضعیت بر روی شناور، پارامترهای دورانی آن اندازه گیری می شوند. از طرفی، با توجه به استانداردهای بین-المللی هیدروگرافی، مشاهدات وضعیت سنج ها می باید از صحت مشخصی برخوردار باشد. از سوی دیگر، با استفاده از مشاهدات فاز حامل GPS می توان با صحت بالاتری نسبت به سنجنده های یاد شده به تعیین پارامترهای وضعیت سکوی متحرک پرداخت. بر این اساس یکی از روش های کنترل میدانی وضعیت سنج ها، استفاده از گیرنده های GPS می باشد. در این مقاله، با استقرار چهار گیرنده GPS با آنتن های چوکرینگ در چهار گوشه یک فریم مربعی به ابعاد 15 متر بر روی شناور 27 متری سازمان جغرافیایی، و انجام آزمایش دریایی در سرعت های knots5 الی knots12؛ سنجنده تعیین وضعیت شناور یاد شده مورد ارزیابی میدانی قرار گرفت. نتایج عددی نشان می دهد که میانگین برآورد دقت زاویای پیچ، رول و هدینگ با استفاده از گیرنده های GPS به ترتیب «28،»28 و «17 است. از طرفی صحت تعیین پارامترهای دورانی پیچ، رول و هدینگ سنجنده تعیین وضعیت مورد مطالعه به ترتیب»52/32 ''7، «32/43 ''7 و»24/36 ''32 می باشد. همچنین، ضریب تصحیح بدست آمده برای پارامترهای دورانی پیچ، رول و هدینگ این وضعیت-سنج به ترتیب برابر «60/24 ''7،»12/51 و «84/48 ''17- می باشد. بطور کلی، نتایج حاصل از این آزمایش میدانی دلالت بر کارایی روش ارائه شده در این پژوهش دارد.
    کلیدواژگان: کنترل میدانی، وضعیت سنج، مشاهدات GNSS، رول، پیچ، هدینگ، هیدروگرافی
  • امیر عبادی*، علیرضا آزموده اردلان، روح الله کریمی صفحات 157-165
    یکی از روش های تعیین ژئویید حل مساله مقدار مرزی گرانی زمین با استفاده از روش وارون سازی تک مرحله ای معکوس بر مبنای مشتقات مرتبه اول انتگرال پواسن بیضوی برای انتقال شتاب گرانی در سطح زمین به پتانسیل گرانی بر روی بیضوی مرجع است. این روش بر اساس ایجاد مشاهدات تفاضلی بر روی سطح زمین به کمک یک میدان مرجع و تبدیل آن به مجهولات تفاضلی پتانسیل گرانی بر روی بیضوی عمل می نماید. میدان های مرجع جهانی با فرض عدم وجود جرم توپوگرافی در خارج مرز آن ها قابل استفاده می باشند، اما برای استفاده از آن ها در داخل مرز، جایی که جرم توپوگرافی وجود دارد دچار خطا می شوند. در این مقاله برآورد روابط ریاضی محاسبه این خطا و لزوم اعمال آن در مرحله بازگشت روش وارون سازی تک مرحله ای معکوس ارائه شده است. صحت عملکرد روش محاسبه بایاس یاد شده با استفاده از مشاهدات گرانی واقعی در منطقه آزمونی در غرب ایران آزمایش شده است که نتایج آن موید اصلاح صورت گرفته در محاسبه اثر میدان جهانی در فضای پتانسیلی در مرحله بازگشت روش وارون سازی تک مرحله ای معکوس می باشد.
    کلیدواژگان: بایاس انتقال به سمت پایین تحلیلی، وارون سازی تک مرحله ای معکوس، مساله مقدار مرزی گرانی زمین، تعیین ژئویید
  • داود پناهی بروجنی*، علی اسماعیلی، روشنک درویش زاده، فرزین ناصری صفحات 167-177
    تخمین دقیق پارامترهای بیوفیزیکی و بیوشیمیایی گیاهان در زمینه های مختلفی مانند کشاورزی، اکولوژی و هواشناسی اهمیت بسزایی دارد. در میان محصولات کشاورزی ایران، اهمیت استراتژیکی-اقتصادی پسته ضرورت توجه بیشتر به برنامه ریزی جهت افزایش تولید این محصول را آشکار می سازد. هدف اصلی این مطالعه مقایسه روش های آماری تک متغیره شاخص های باریک باند گیاهی و روش های چند متغیره SMLR و PLSR در پیش بینی غلظت کلروفیل برگ درختان پسته با استفاده از داده های انعکاسی فراطیفی می باشد. داده های طیفی از برگ درختان پسته که در مقاطع رشد و شرایط گوناگون جمع آوری گردیده بودند، در اتاق تاریک با دستگاه طیف سنج ASD Field Spectrometer III تهیه شدند. سپس میزان کلروفیل برگ ها با دستگاه کلروفیل متر SPAD قرائت شدند و همچنین آزمایشات شیمیایی جهت استخراج غلظت کلروفیل نمونه ها در آزمایشگاه شیمی انجام شد. در میان شاخص های گیاهی باریک باند جهت پیش بینی غلظت کلروفیل نمونه ها، شاخص RVI با طول موج های بهینه 670 و 734 نانومتر و استفاده از داده های طیفی تبدیل شده مشتق اول بیشترین دقت را داشت (72/0 =، 25/0 RRMSEcv=). نتایج بدست آمده از روش های چند متغیره در پیش بینی غلظت کلروفیل نیز نشان داد که، مدل های PLSR و SMLR با استفاده از داده های طیفی تبدیل شده مشتق اول دقت بالاتری نسبت به روش های تک متغیره داشتند (79/0 =،21/0 RRMSEcv=). به طور کلی نتایج این تحقیق نشان داد، داده های انعکاسی فراطیفی پتانسیل بالایی در پایش سلامت و وضعیت رشد محصولات کشاورزی، مخصوصا برگ درختان پسته دارند و همچنین مدل های آماری چند متغیره نسبت به روش های تک متغیره دقت بالاتری در پیش بینی غلطت کلروفیل برگ درختان پسته داشتند و داده های انعکاسی تبدیل شده نسبت به داده های طیفی اولیه دارای توانایی بالاتری در پیش بینی میزان کلروفیل هستند.
    کلیدواژگان: برگ درختان پسته، کلروفیل، طیف سنجی فراطیفی، شاخص های گیاهی باریک باند، مدل PLSR، مدل SMLR
  • روح الله یزدان*، محمد جواد ولدان زوج، حمید عبادی، علی محمدزاده صفحات 179-188
    وجود اطلاعات مکانی دقیق، صحیح و بهنگام از منابع کشور در یک پایگاه داده جامع مکان مرجع به همراه تجزیه و تحلیل های مرتبط، از مهمترین ابزارهای تصمیم گیری و مدیریت بهینه می باشد. برنامه ریزان شهری به منظور طراحی و پیاده سازی طرح های شهری به اطلاعات به روز شده کاربری زمین نیاز دارند، بنابراین نقشه ها باید به طور منظم در برابر تغییرات به روز شوند. به منظور بروز رسانی نقشه های موجود بکمک تصاویر ابتدا باید تغییرات شناسایی و سپس عوارض تغییر یافته بازسازی شوند. ساختمانها از مهمترین عوارض موجود در نقشه های بزرگ مقیاس هستند، لذا فرآیند شناسایی و استخراج این عوارض از اهمیت بالایی برخوردار است. در این تحقیق به منظور استخراج ساختمان، روشی بر پایه مدل مارگون1 ارائه شده است. بدین منظور ابتدا با بهره گیری از تصاویر هوایی با قدرت تفکیک مکانی بالا (تصاویر دوربین Ultra Cam D)، DSM وOrtho Image تولید و سپس با ارائه روشی جدید و بهره گیری از اپراتورهای مورفولوژی، منحنی های اولیه مدل، تولید گردیده است. همچنین در ادامه لبه های مهم به کمک اپراتور استخراج لبه Canny استخراج شده و در نهایت با بکارگیری روش پیشنهادی بر پایه مدل های مارگون، ساختمانها استخراج می شود. روش ارائه شده با روش Snake-GVF مقایسه گردید و نتایج حاکی از بهبود پارامترهای ارزیابی (مقدار Completeness این روش برابر 86.043% و Correctness آن نیز برابر 91.124%) می باشد.
    کلیدواژگان: تصاویر با قدرت تفکیک مکانی بالا، استخراج نیمه اتوماتیک ساختمان، مدل مارگون، مدل های منحنی فعال
  • ندا منصوری فر*، علی محمدزاده، مهدی مختارزاده، محمد جواد ولدان زوج صفحات 189-201
    شناسایی ساختمان ها از تصاویر هوایی و ماهواره ای یک بحث تحقیقاتی فعال در حوزه ی سنجش از دور و ماشین بینایی در طی سال های اخیر است. الگوریتم های طبقه بندی عوارض، در مناطق پیچیده شهری مانند منطقه مورد مطالعه که ساختمان ها در میان تراکم درختان و دارای سقف شیروانی و قسمت هایی از شیشه هستند، با مشکلات بسیاری مواجه می باشند.در این مقاله برای مقابله با مشکلات ذکر شده، ویژگی های شی مبنا، ارتفاعی و...جهت طبقه بندی با استفاده از ماشین بردار پشتیبان در دو آنالیز شی-مبنا و پیکسل مبنا بررسی شده اند. لازم به ذکر است که آنالیز پیکسل مبنا در دو حالت با ویژگی های استخراج شده از تصویر هوایی و داده لایدار انجام می شود.روش پیشنهادی شامل سه مرحله کلی می باشد، در مرحله اول آماده سازی داده ها و استخراج ویژگی ها انجام می شود، مرحله دوم شامل طبقه بندی با استفاده از ماشین بردار پشتیبان است که در دو آنالیز شی مبنا و پیکسل مبنا صورت می گیرد،در مرحله سوم پس از پردازش، نتایج حاصل از هر آنالیز با داده مرجع، مقایسه شده و ارزیابی می شوند.در این تحقیق هدف نهایی دستیابی به الگوریتمی بهینه با استفاده از ویژگی های مختلف می باشد. با مقایسه سه ضریب کاپای طبقه بندی کننده ماشین بردار پشتیبان که در آنالیز شی مبنا 97/0 و در حالت اول آنالیز پیکسل مبنا 88/0 و در حالت دوم 95/0 می باشند، این نتیجه حاصل می شود که در آنالیز شی مبنا به دلیل استفاده از ویژگی هایی شامل شکل و ساختار، در مقایسه با دو حالت آنالیز پیکسل مبنا، شناسایی کلاس ساختمان مطلوب تر انجام گرفته است. از طرفی با مقایسه دو حالت پیاده شده در آنالیز پیکسل مبنا،مشخص می-شود که اضافه شدن ویژگی های ارتفاعی لایدار در حالت دوم، باعث بهبود نتایج شده است.
    کلیدواژگان: شناسایی ساختمان، داده لایدار، شی مبنا، پیکسل مبنا، ماشین بردار پشتیبان
  • فرزانه عابدی*، علی محمدزاده، مهدی مختارزاده، محمد جواد ولدان زوج صفحات 203-216
    شناسایی عوارض شهری در سال های اخیر به دلیل رشد شهرنشینی و گسترش دامنه شهرها اهمیت بالایی یافته است. کشف عوارض شهری و طبقه بندی آن ها در لایه های مختلف اطلاعاتی جهت ایجاد، تکمیل و به روز رسانی پایگاه داده اطلاعات شهری مورد تحقیق بسیاری از دانشمندان بوده است. هدف از این تحقیق مقایسه و ارزیابی روش های مختلف کلاسه بندی مبتنی بر آنالیز شی مبنا جهت شناسایی عوارض شهری از داده های لایدار و اپتیک است. این تحقیق سه فاز اصلی را در بر می گیرد. در فاز اول تصویر هوایی با مقیاس بالا و داده لایدار پیش پردازش می شوند تا برای ورود به الگوریتم آماده گردند. در این مرحله داده های مذکور با هم از نظر مکانی هم مرجع می شوند. در فاز دوم سطوح مختلف قسمت بندی درختی ایجاد می شوند. با اتخاذ این استراتژی در هر سطح کلاس-های مورد نظر تحقیق شناسایی می شوند، به این طریق طبقه بندی با انسجام بیشتری صورت می گیرد. انتخاب پارامترهای مناسب قسمت بندی چند رزولوشنه و اعمال وزن به لایه های ورودی در هر سه سطح دنبال می شود. انتخاب این پارامترها به صورت سعی و خطاست که از طریق ارزیابی بصری نتایج حاصل از قسمت بندی انجام می گیرد. بعد از تولید اشیا باید ویژگی های مناسب جهت انجام کلاسه بندی شی مبنا در هر سطح با سه روش حد آستانه گذاری، نزدیک ترین همسایه و تابع تعلق معرفی شوند. انتخاب ویژگی مرحله ای حساس و مهم است چرا که دقت نتایج کلاسه بندی را کنترل می نماید. فاز سوم شامل ارزیابی و تفسیر نتایج هر سطح سلسله مراتب برای هر روش کلاسه بندی است. با ارزیابی نتایج مشخص گردید. دقت کلی روش نزدیک ترین همسایه در سطح اول برابر 99/0 است که در میان سه روش اجرا شده بالاترین دقت کلی را داراست. در سطح دوم دقت کلی روش نزدیک ترین همسایه با 985/0 بیشترین مقدار است. در سطح سوم دقت کلاسه بندی با روش تابع تعلق و حدآستانه گذاری برابر 841/0 است.
    کلیدواژگان: کلاسه بندی سلسله مراتبی، قسمت بندی سلسله مراتبی، آنالیز شی مبنا، داده لایدار و اپتیک، عوارض شهری
  • ابوالفضل رنجبر، سیدعلی ترابی، فرهاد حکیم پور* صفحات 217-230
    سامانه اطلاعات مکانی می تواند به شکل موثری در جمع آوری، وزن دهی، تجزیه و تحلیل و نمایش داده های مکانی در جهت مکان یابی دفن پسماندهای شهری کمک نماید. مکان یابی دفن پسماندهای شهری دارای اهمیت فراوانی بوده و فرآیند آن پیچیده و مبتنی بر معیارهای کمی و کیفی متعددی است. لذا در این مقاله، یک روش ترکیبی برای تعیین مکان مناسب دفن پسماندهای شهری ارائه شده است. بر این اساس، ابتدا به روش AHP، وزن لایه های مورد نظر تعیین شده و سپس مکانهای مورد نظر به 3 کلاس عالی، خوب و ضعیف طبقه بندی می شوند. در فاز آخر نیز ابتدا مناطق قرار گرفته در کلاس عالی به روش پرامتی V رتبه-بندی شده و سپس با در نظر گرفتن محدودیت های عملی مساله، نظیر محدودیت بودجه و روابط فی مابین آنها با حل یک مساله بهینه سازی صفر و یک، اقدام به تعیین بهترین منطقه (مناطق) جهت دفن پسماندها می شود. همچنین، رویکرد پیشنهادی بر روی شهرستان تبریز به عنوان مطالعه موردی اجرا شده و با توجه به تحلیل حساسیت انجام گرفته روی اوزان مشخص شده است که گزینه انتخاب شده مناسب بوده و دارای استحکام لازم می باشد.
    کلیدواژگان: مکان یابی مراکز دفن پسماندهای شهری، تحلیل سلسله مراتبی، پرامتی II و V، برنامه ریزی صفر و یک، آنالیز حساسیت
  • سمیه محمودی*، محمدرضا سراجیان، علی اسماعیلی، ساناز واجدیان صفحات 231-243
    این مطالعه، رشد منطقه ی شهری را به روش ترکیب دو آشکارساز تغییر فازی مختلف، با استفاده از تصاویر ماهواره ای بررسی می کند. هدف از انجام این مطالعه، در درجه ی اول بهره گیری از تاثیرات تکنیک های آشکارسازی تغییراتی است که وجه تمایز آنها در چگونگی بکارگیری داده ها می باشد. این تاثیرات منجر به بدست آمدن خروجی های متفاوت و مکمل هم می شود و با تلفیق آنها می توان به صحت بهتری رسید. سپس بررسی و مقایسه ی کارآیی سه دسته روش تلفیق در سطح تصمیم مختلف می باشد. در این مطالعه، شهر کرج به عنوان منطقه ی مورد مطالعه انتخاب شده است. تصاویر ماهواره ای مورد استفاده در این مطالعه تصاویر سنجنده ی ASTER اخذ شده در جولای 2001 و سپتامبر 2012 می باشند. آشکارسازی تغییرات به صورت فازی به دو روش مقایسه پس از طبقه بندی و آنالیز ترکیبی طیفی- زمانی انجام شده است. سپس خروجی های این دو روش با استفاده از سه دسته اپراتور تلفیق مختلف شامل: 1) اپراتورهای میانگین گیری 2) اپراتور ماکسیمم 3) اپراتورهای انتگرال فازی با هم تلفیق شده اند. نتایج ارزیابی صحت با استفاده از نقشه های پوششی موجود، اولا بهبود صحت آشکارسازی تغییرات را نسبت به هریک از آشکار سازهای تغییرات واحد و ثانیا برتری روش های تلفیق انتگرال فازی را نسبت به دو دسته روش دیگر اثبات می کند.
    کلیدواژگان: آشکارسازی تغییرات، فازی، تلفیق در سطح تصمیم، سنجنده ی ASTER
|
  • D. Akbari *, A. Safari, S. Homayouni Pages 1-10
    Recently, hyperspectral images analysis has obtained successful results from information extraction in urban areas. Building detection is one of the important applications in processing hyperspectral images. In order to detect complete and precise building information from hyperspectral data, advanced data analysis methods are required. Algorithms based on spectral-identification are sensitive to spectral variability and noise in acquisition. In most cases, the spectral signature is unknown, so each pixel is separately examined and if it significantly differs from the background, it is regarded as an object. On the other hand, there are many algorithms e.g. Spectral Angle Measure (SAS), Spectral Correlation Similarity (SCS), Spectral Information Divergence (SID), Jeffries-Matusita Distance (JMD), Constrained Energy Minimizing (CEM) and Covariance-based Matched Filter Measure (CMFM) for building detection. In this study, first we employed the SAS, SCS, SID, JMD, CEM and CMFM algorithms for building detection. Then, in the next step to improve the spectral detection algorithms, two strategies, the combining algorithms using Adaptive Neuro-Fuzzy Inference System (ANFIS) method and spectral-spatial detection, was employed. Our experiments results demonstrate a significant improvement of accuracy using proposed strategies on two CASI hyperspectral images taken from an urban area.
    Keywords: Hyperspectral image, Target Detection, Spectral, Spatial Detection, ANFIS
  • M. A. Ghannadi *, M. Saadatseresht Pages 11-24
    SAR Image matching is a critical step in the radargrammetry, interferometry, DSM Generation and change detection applications of SAR image data. Image matching procedure in these images is much more difficult than the optical images due to high speckle noise and geometric distortions defining by layover, shadow, and foreshortening. Therefore, study on an efficient SAR image matching could be useful. In this paper, a multi-step strategy for this issue is proposed. These steps include SAR image despeckling, point feature extraction, feature allocation, local image matching and global image matching. In the proposed multi-step method we used current algorithms in photogrammetry and computer vision. In each step, several algorithms are experimented and compared to specify the final algorithm for that step. In our experiments, we used a pair of TerraSAR-X single-look slant-range complex (SSC) images with short and long baselines that were acquired over the city of Jam, southern Iran, in spotlight mode. The result shows that the proposed method could match appropriate number of points in both images with high accuracy and reliability. For example it could match 211 points with 1.9 pixel accuracy for long base line image pair with size of 700×700 pixels and 1603 points with 1.22 pixel accuracy for short base line image pair with size of 400×400 pixels. Therefore, the proposed SAR multi-step image matching strategy is appropriate for coarse matching level.
    Keywords: SAR image, Image matching, Feature extraction, Speckle noise, TerraSAR, X, Radargrammetry, Interferometry
  • F. Zakeri *, M. J. Valadan Zoej, M. R. Sahebi Pages 25-35
    Speckle noise in radar images reduces the information that can be got from these images. This paper proposed speckle reduction in SAR images by soft thresholding of curvelet coefficients with emphasis on the preserving of edges. First, multiplicative speckle noise was transformed into an additive one by taking the logarithm of the original speckled image. Then curvelet transform was taken of logarithmically transformed image and the curvelet coefficients were thresholded by soft thresholding function. The results have been compared then to the results obtained by other widely-used adaptive filters including Frost, Gamma, Kuan, soft thresholding wavelet based filters and hard thresholding of curvelet coefficients. The results showed that the soft thresholding curvelet based filter offers better results than the mentioned filters (Mean Square Error, Normalized Mean Square Error and Mean Absolute Error indices reduced 27%,27% and 15% respectively, also Equivalent Number of Looks (ENL) increased to 27/34 and 3/61 for RADARSAT1 and ENVISAT respectively). All in all results indicated that soft thresholding of curvelet coefficients besides high reduction of speckle noise is also very powerful in keeping the edges.
    Keywords: Curvelet Transform, Radar Images, Hard, Soft Thresholding, Speckle Noise
  • A. M. Lak *, M. J. Valadan Zoej, M. Mokhtarzadeh Pages 37-52
    Roads detection in urban areas is of greater importance and is constantly considered as a main issue of researches in remote sensing community. According to spectral and geometrical variety of road pixels as well as their spectral similarity with other features such as buildings, parking lots and sidewalks and sometimes discreteness of roads due to having vehicles and trees in their neighborhood makes it problematic to precisely identify urban roads through satellite images. On the other hand, LiDAR data, providing height information, make it possible to recognize roads from other spectrally similar elements. Therefore, it has been used in many researches to identify different features like roads along with satellite images. In this paper Quick Bird large scale satellite image and LiDAR data through an object oriented analyses have been used to extract various types of urban roads. Proposed method has designed and implemented a rule oriented strategy based on a masking strategy. Afterwards, a supplementary strategy based on conceptual features design was used. The overall precision of class identification is 89.2 % and kappa coefficient is 0.832 which show a satisfactory precision according to different conditions and many interclass noises. Final results demonstrate high capability of object oriented methods in simultaneous identification of wide variety of road elements in complex urban areas using both high resolution satellite image and LiDAR data.
    Keywords: Road detection, Object oriented analyses, High resolution satellite image, LiDAR data
  • M. Sajadian *, H.Arefi Pages 53-65
    Nowadays, automatic processing and object extraction from data acquired by airborne sensors has been an important research topic in photogrammetric institutes. Airborne laser scanning system, which is commonly referred to as LiDAR, is a superior technology for three-dimensional spatial data acquisition from Earth’s surface in high speed and density. 3D city modeling is one of the main applications of LiDAR system. An important first step to reconstruct the building as one of the most important components of urban models is to identify and separate the building points from other points such as; terrain, trees, and vegetation. In addition, building roof segmentation is another important step in point cloud processing. In this paper, a multi-agent strategy is proposed for simultaneous extraction of building and segmentation of roof points from LiDAR point cloud. First, the ground and vegetation candidate points are removed from building points using local minimums of heights and returned pulse. Then different segments are extracted by analysis of the triangles formed on the remaining points by means of region growing method based on normal vectors. Finally, building segments are separated from other segments using area criterion and the united building segments are detected using a new method named ‘Grid Dilation’. The proposed method has been tested on the LiDAR data of the Vaihingen city, Germany. In addition to a visual interpretation, a quantitative assessment has been done. Due to lack of a ground truth, control points was selected manually from LiDAR point cloud and compared with points that classified using proposed method. The proposed method extracts the roof of buildings with an accuracy of 93%. Overall, the results indicate that proposed method could successfully identify the building segments without using additional resources, such as map or aerial photo. The main advantage of this method is its capability for extraction and segmentation of buildings containing parallel multi-level roof structures even with a very small height differences (e.g. 10 cm).
    Keywords: LiDAR, Point cloud, Delaunay triangulation, Normal vector, Segmentation, Building extraction, Building segments
  • M. Alisufi *, B. Voosoghi Pages 67-75
    In studies of crustal deformation, volcanic models give valuable insights of volcanoes features and their behavior over time. Displacement field modeling, using analytical models needs to determine the parameters of the geophysical and geological volcanic reservoir. Therefore, modelling of volcanic magma reservoir was performed by an inverse problem resolution using the displacement field obtained from geodetic observations as the boundary values of the analytical models of deformation. This modeling was performed by genetic evolutionary optimization algorithm for Damavand volcano. Also, Displacement field during the years 2000 to 2001 for campi flegrei volcano was modelled. Comparing with the previous studies, the research has demonstrated favorable results. The result of displacement field modelling of the Damavand volcano has shown unexpected residuals (according to the magnitude of the displacement field) in some areas. This fact indicates presence of other displacement sources in addition to the volcanic deformation source in the region. The results lead to a reduction in the volume of the volcano magma reservoir with rate of equal to 0.001, located at a depth of 5.6 km below the ground. This volume reduction causes a small displacement in the area near the volcanic source. Modelled 2D coordinate of center of the source in the Lambert projection (4831.999E, 31328.536N) km and RMSE of inversion results 2mm was achieved.
    Keywords: Displacement field of the volcano, Displacement field modeling, Damavand Volcano, Optimization, Genetic Algorithm, Magma reservoir modeling
  • S. Mohammady, M. R. Delavar * Pages 77-86
    Today, due to the limited natural resources of land, rapid population growth, rapid expansion of cities, future land use prediction is very important for land managers, planners and environmental specialists because land use change effect on ecosystem and also threaten vital resources. Modeling and analysis of the phenomenon of urban development provide comprehensive information to urban planners and managers to have better and more scientific planning. The main objective of this research is modeling urban growth for the city of Sanandaj, in the west of Iran using satellite imagery, Geographic Information Systems and logistic regression. The parameters are used in this study, including distance to developed area, distance to main roads, distance to green spaces, elevation, slope, distance to fault, distance to district centers and number of urban cell in a 3 by 3 neighborhood. Figure of Merit, Kappa coefficient and Percent Correct Match (PCM) have been used to evaluate goodness of fit of proposed model.
    Keywords: Urban expansion, Modeling, Land use change, Logistic Regression
  • M. Effati *, M. A. Rajabi, F. Hakimpour, Sh. Shabani Pages 87-102
    Motor vehicle crashes is one of the main problems of road transportation network in Iran. Exploring the significant variables related to concentration of motor vehicle crashes is vitally important in reducing crashes on a highway corridor. This study integrates spatial analysis with a K-Mean-based Hierarchical Agglomerative Clustering method to identify the correlation between major crash types at the concentration points of crashes and explore the most spatial factors that may lead to crashes. An experiment is designed and conducted on Qazvin-Rasht highway corridor using real crash records and spatial factors related to roadway geometry and its proximity features. Results showed that clustering crash records using the proposed method is 6.7 percent better than hierarchical agglomerative clustering and approximately 10 percent better than k-mean clustering method. Moreover, analyzing the concentration points of crashes using spatial functions and discovery of patterns and rules data mining approach explored type and specification of each cluster's crashes and revealed the impact of road geometry, traffic, urban development, activities and land uses in the proximity of highway corridors on increasing the rate and severity of motor vehicle crashes.
    Keywords: Road Safety, Motor Vehicle Crashes, Geospatial Information Systems (GIS), K, Means based Hierarchical Agglomerative Clustering, Separate, Conquer Algorithm
  • S. F. Mirmohammadian *, J. Asgari, V. Nafisi Pages 103-112
    During last two decades Precise Point Positioning has been considered as one of the most important methods in satellite geodesy. Despite the efforts to improve the PPP precision, this method has not yet achieved the precision of Relative positioning methods. Most of the efforts on PPP improvement focus on the processing models and phase ambiguity. Modeling the tropospheric delay is very crucial to achieve high precision in Precise Point Positioning. There are different methods to estimate this delay such as ray-tracing or using appropriate mapping functions e.g. GMF, VMF,, …, which relate the zenith path delay to slant path delay.In this paper, the ray-tracing slant path delay has been used as a reference value. Then three other delays are calculated using zenith path delay obtained from PPP and Global mapping function in different ways. The difference between the delay computed by ray-tracing method and those three other delays is applied to the RINEX observation files. The new RINEX files are implemented for PPP reprocessing. Comparing the achieved results, with the ITRF coordinates of points, shows that applying the difference of slant path delay from ray-tracing and slant path delay which is computed by zenith path delay of PPP (using 88% of hydrostatic global mapping function and 12% of non-hydrostatic global mapping function) to the RINEX files, improve positioning accuracy.
    Keywords: Ray, tracing, Numerical Weather Model, Precise Point Positioning
  • N. Abdi *, H. Nankali Pages 113-121
    During the recent years, GPS has been introduced as a unique tool to study the propagation of electromagnetic waves through the atmospheric layers, in particular the ionosphere. The ionosphere is currently the major source of errors in GPS positioning which its effect on wave propagation is dependent on the amount of TEC and signal frequency. In this paper, the temporal-spatial variations in Iranian TEC has been studied using observations of 40 IPGN stations. For this purpose, GPS observation data, consisting 10 days in 2012 and 3 days in 2013 which are the first days of solar months, have been processed via Bernese 5.0 GPS software (first days of each season is included in our data). To do so, regional ionosphere modeling, estimation of TEC values and calculation of the receiver DCB have been performed by expansion of spherical harmonic functions up to the sixth degree and order. Furthermore, the difference between smoothed code observations from the first and second frequencies has been used to eliminate geometric effects, such as satellite and receiver clock biases and tropospheric delays. Blunder and cycle slip detection as well as code observation smoothing have been performed during preprocessing steps. The results have shown that the maximum and minimum ionosphere effects are related to the spring and winter seasons, respectively, and the maximum TEC value occures at about 14:00 local time. Moreover, we can see significant TEC variations in accordance with changes in latitude. on the other hand, the maximum and minimum TEC values in Iran is associated with the minimum and maximum latitudes, respectively. In the spring of 2012, 100 TECU was observed as the TEC value. If the satellites are near the horizon and by using second frequency, It could lead to an error 75 meters on the satellite–receiver range.
    Keywords: Ionosphere, GPS, TEC, TECU, DCB
  • A. Safari, M.A. Sharifi, A. Bahroudi, S. Parang * Pages 123-137
    This study aims at finding Moho Depth in the Zagros zone and estimating crustal thickness through Euler Deconvolution method. Euler Deconvolution method is an automatic one to estimate depth, shape and place of magnetic and gravity sources which is based on using field derivatives in Euler`s homogenous equation. In using Euler Deconvolution method it is important to identify structural index and window size of estimator, these parameters strongly affect the final results. The study first uses spherical harmonic coefficients of EIGEN-GL04C geopotential model to calculate free air gravity anomaly in φ=29.25 ͦ - 34.75 ͦ & λ= 48.25 ͦ - 53.75 ͦ region, then Moho Depth was estimated using free air gravity anomaly and Euler Deconvolution method for various structural indices and window sizes. The best structural index and window size were resulted from comparing Moho depth of Euler Deconvolution and of receiver function method (based on seismic studies) in 14 seismic stations of the region and finally the results were compared to CRUST 2.0 model. Results declare that for 0.5 structural index and 40-45 km window size the best Moho depth is estimated for the region.
    Keywords: Euler Deconvolution, Moho depth, Free Air Gravity Anomaly, Crustal Structure
  • O. M. Sorkhabi *, A. Naderi, R. Emadi Pages 139-148
    The main topic of this research is to investigate different gravimetric reduction in the context of precise geoid determination. Gravimetric reduction perform an essential role on precise geoid determination, particularly in rugged areas. A numerical investigation was performed in the rugged area of the Northwest Iran within the geographical boundaries 35.5> φ >39.5 and 44.5>>λ >49.5 to study gravimetric geoid solutions based on the Rudzki inversion scheme, Hеlmert’s second method of condensation, RTM, and the topographic-isostatic reduction methods of Airy-Heiskanen (AH) and Pratt-Hаyford (PH). The results shows Rudzki gеoid performs as well as the Hеlmert and RTM geoids (in terms of standard deviation and range of minimum and maximum values) when comparing to comparison with the GPS-levelling geoid of the test area. Rudzki inversion the sole gravimetric reduction scheme which doesnt change the equipotential surface and thus doesnt need the calculation of the indirect effect.
    Keywords: Gravimetric reduction, Geoid, Rudzki, Helmert
  • A. A. Ardalan *, F.A. Givi, M. H. Rezvani Pages 149-155
    Attitude determination of a moving platform, i.e. roll, pitch, and heading, is one of the essential issues in hydrographic surveying. Commonly, the attitude parameters are measured by motion reference units (MRUs) that are installed onboard the platform. Indeed, in order for bathymetry, the accuracy of the onboard MRU must be in agreement with the corresponding IHO standards. As an alternative method, on the other hand, the platform attitudes can reliably be determined via GPS phase observations. Therefore, GPS-based methods for determining the attitudes can be regarded as a suitable experimental tool for quality control of onboard MRUs. In this contribution, a new GPS-based method is presented for quality assessment of MRU. The proposed method can algorithmically be explained as follows: (i) Establishment of a GPS antenna at berth near to the field operation area. (ii) Installation of four GPS antennae onboard the vessel. (iii) Realization of the body frame (b-frame) with the origin at one of the onboard antennae, hereafter Ant. 1, and measurements of the b-frame coordinates of the other onboard antennae. (iv) Starting GPS observations at about 20 minutes before departure for ambiguity resolution, while the vessel is moored at the berth. (v) Sailing from minimum to maximum cruise speed while GPS and MRU observations are going on. (vi). Realization of a local level frame (ℓℓ-frame) at Ant. 1 as well as transformation of the GPS geocentric coordinates to the established ℓℓ-frame. (vii) Using GPS observations to compute the attitude parameters and the corresponding precisions based on the least squares. (viii) Comparing the GPS-derived attitude parameters with those derived by the onboard MRU. (ix) Estimation of the accuracy and bias of the MRU. As the case study, the presented method is applied to 27-meter long survey vessel of National Geographic Organization (NGO) based on four dual-frequency Javad GNSS receivers with choke-ring antennae in the surrounding waters of Kish harbor at different cruise speeds ranging from 5 to 12 knots. Numerical results asserted achievement of mean precisions of 28", 28" and 17" for the pitch, roll and heading, respectively, using carrier phase observations according to the proposed procedure. Moreover, the estimated accuracies for the pitch, roll and heading of the onboard MRU are 7.5', 7.7' and 32.6', respectively. Furthermore, the correction coefficients were computed for the pitch, roll and heading of the onboard MRU. The overall results approved the efficiency of the proposed method to reliably derive the attitudes of moving platforms.
    Keywords: Attitude parameters, GNSS, MRU, Field control, Hydrographic surveying
  • A. Ebadi *, A. A. Ardalan, R. Karimi Pages 157-165
    One of the geoid determination methods is solving earth gravity boundary value problems based on the first derivative of the ellipsoidal Poisson’s integral, for gravity values transformation from the Earth’s surface to the gravity potential on the reference ellipsoid. This method is identified by transforming differential gravity observation on the earth’s surface through using a reference gravity field, to the gravity potential on the reference ellipsoid. Reference gravity fields are valid to use in non-topography areas, but applying them in the inner zone, where we have topography mass, would be associated with some error. In this paper, mathematical formula for estimating this error and the necessity of applying that in restore step of one-step inversion method has been evaluated. For the accuracy assessments, an area with real gravity data in the west of Iran has been considered. The results confirmed the accuracy of this correction term in computing reference field effect on potential space in restore step of one-step inversion method.
    Keywords: Analytical Downward Continuation bias, One, step inversion method, Geoid determination, Earth gravity field boundary value problems
  • D. Panahi *, A. Esmaili, R. Darvishzadeh, F. Naseri Pages 167-177
    Accurate quantitative estimation of vegetation biochemical and biophysical characteristics is necessary for a large variety of agricultural, ecological and meteorological applications. Among agricultural products in Iran, strategic and economical importance of Pistachio highlights the essential planning for improvement and increase of its production. The aim of this study is to compare the utility of statistical multivariate calibration techniques, including Stepwise Multiple Linear Regression (SMLR) and Partial Least Squares Regression (PLSR) with univariate techniques such as narrow band vegetation indices using hyperspectral data for estimating chlorophyll content of Pistachio trees. Pistachio leaves were collected in different growth stage. Spectral and chemical measurements were obtained from the collected samples at the laboratory, using ASD Field Spectrometer III, SPAD measurements and wet chemical analysis. Narrow band indices derived from all possible two-band combinations of reflectance and first derivative data were assessed and the best band combinations with the highest R^2 values were selected and used in linear regressions to predict the studied parameters. Among studied indices, the narrow band RVI index with wavelengths 670 nm and 734 nm using first derivative were recognized as the best index for predicting chlorophyll (R2cv = 0. 72، RRMSEcv = 0. 25). The results of multivariate analysis showed that PLSR and SMLR techniques using first derivative data are better than narrow band indices in chlorophyll prediction, respectively (R2cv = 0. 79 and RRMSEcv = 0. 21). In a nutshell this study showed that multivariate calibration techniques increase the accuracy of predicting chlorophyll content in Pistachio leaves comparing to univariate techniques. Also first derivative transformation would increase the accuracy of predicted parameters compared to reflectance values. The results highlight the benefits of using hyperspectral measurements in assessing the biochemical parameters of Pistachios trees and therefore are recommended for analysis of health and growth status of agricultural products.
    Keywords: Hyperspectral, Pistachio leaves, Chlorophyll, Partial Least Squares Regression, Stepwise Multiple Linear Regression, Narrow band vegetation index
  • R. Yazdan *, M. J. Valadan Zoej, H. Ebadi, A. Mohammadzadeh Pages 179-188
    Urban planners and GIS users need to update their land use information in order to design and perform urban planning. Therefore the maps need to be updated regularly. An appropriate approach of updating them is using aerial images. Due to the high resolution of these images, their low cost, and also the possibility of aerial image acquisition in Iran, using aerial images for map updating has been a great concern. In order to update the available maps, the object changes should be understood, and then reconstructed. In this case and according to the properties of large scale maps (1/2000), buildings are very important features to be updated.In this research, a novel method based on Snake’s theory is proposed to detect buildings’ outlines. Also, a different Active Contour Model was used in order to compare the results of the proposed method. DSM and Ortho Images were produced using Stereo images and enough control points, the curve needed to initialize the snake model was obtained from the generated DSM. According to the results, the proposed method in this research provides the completeness of 86.043%, and the correctness of almost 91.124%.
    Keywords: Active Contour Models, Snake models, Building extraction, High resolution images
  • N. Mansourifar *, A. Mohammadzadeh, M. Mokhtarzadeh, M. J. Valadan Zoej Pages 189-201
    Building detection from areal and satellite images is an active discussion in remote sensing and machine vision in recent years. Urban areas usually are dense and consist of complex components such as compact tree areas and buildings with gable roof and glassy parts. Classification algorithms which are applied to these kinds of data sets will be faced many problems. In this paper to deal with the aforementioned problems, the object based features; height and etc. have been investigated for classification by the use of support vector machine in the object based and pixel based analysis. It should be noted that pixel based analysis performed in two different states with features which are extracted from aerial imagery and LiDAR data. The proposed method consists of three general steps; the first step is data preparation and features extraction. The second step is classification by the use of support vector machine in object based and pixel based analysis; In the third step, post processing is applied then results of classifications are compared and evaluated with ground truth data. In this study the final goal is to achieve optimized algorithm using various features. with comparison of Kappa coefficient in three classifications; o.97 in object based analysis, o.88 in first state of pixel based analysis and 0.97 in second state of pixel based analysis, it is obvious object based analysis achieved the best result due to using features such as shape and structure. More over using LIDAR data in second state of pixel based analysis increased the accuracy of pixel based classification.
    Keywords: Building detection, LIDAR data, Object based, Pixel based, Support Vector Machine
  • F. Abedi *, A. Mohammadzadeh, M. Mokhtarzadeh, M. J. Valadan Zoej Pages 203-216
    In recent years urban classification becomes very important caused by urban growth and high rate of urbanization. Classification and recognition of urban classes in different information layers for supplementation and updating of urban database is considered by researchers and managers. The goal of this paper is comparison and evaluation of different urban classification methods base on object based analysis by using LIDAR data and optical imagery. This paper includes three main phases. First step of workflow is co registration and preprocessing of LIDAR data and high resolution imagery to prepare multi source data for urban classification. Second step followed by hierarchal multi resolution segmentation at different scales to exhibit different features which are consist of building, roads, vegetation area and vehicles. Segmentation contains three main levels. Selection of hierarchal segmentation parameters is a try and error task and segmentation validation is done by visual assessment. After object production convenient features should be introduced to the classification algorithms. Finally thresholding, nearest neighbor and fuzzy nearest neighbor classification at each level of hierarchy was performed. Last step is result assessment and interpretation. By result evaluation, nearest neighbor classification with 0.99 over all accuracy was nominated as best classifier in first level. In second level of hierarchy nearest neighbor classification with 0.985 shows the highest overall accuracy. In third level fuzzy nearest neighbor classification and thresholding show 0.841 over all accuracy.
    Keywords: Hierarchal classification, Hierarchal segmentation, object based analysis, LIDAR, optical data, urban features
  • A. Ranjbar, S. A. Torabi, F. Hakimpour * Pages 217-230
    GIS can effectively work in the field of site selection urban waste landfill through gathering, weighting, analyzing and displaying spatial data. Site selection for urban waste landfill in very important and its process is complicated and has various quality and quantity criteria. In this paper a hybrid method has been prepared to determine suitable site for urban waste landfill. For doing this weights of requirement layers are specified by AHP method than noted locations are categorized in three classes: Best, Good and Weak. In the last phase, first zones in the best class are ranked by Promethee V method and then with regarding practical constraints such as budget restriction and their internal connections, the best region(s) are determined for urban waste landfill though solving a Zero-One programming optimization procedure. Also the given method has been executed on Tabriz city as a case study and doing sensitive analysis on weights has shown that the selected alternative is suitable and has enough robustness.
    Keywords: Site Selection for Urban waste Landfill, Analytical Hierarchy Process (AHP), Promethee II, V, Zero, One Programming, sensitive Analysis
  • S. Mahmoudi *, M. R. Saradjian, A. Esmaeily, S. Vajedian Pages 231-243
    The aim of this study is firstly taking the advantages of effects of various change detection techniques. These techniques are differentiated by the way they use the dataset which could lead us to gain complementary outputs and ultimately achieve higher accuracy in change detection and secondly comparison of performance of three various group of decision level fusion schemes. The study area is the city of Karaj in Iran. Satellite images used in this study are ASTER images captured on July, 2001 and September, 2012. Change detection have been performed with fuzzy post classification and combined fuzzy spectral–temporal analysis techniques, then results of this techniques fused by means of three various group of decision level fusion schemes included:1) Averaging operators 2) Maximum operator 3) fuzzy integral operators. Results of accuracy assessment that has been done by available land cover maps firstly has shown improvement of change detection accuracy over each single fuzzy change detector and secondly has demonstrated advantage of fuzzy integral methods with respect to two other methods.
    Keywords: Change Detection, Urban Expansion, Fuzzy, Decision Fusion, ASTER Sensor