فهرست مطالب

نشریه علوم و فنون نقشه برداری
سال دهم شماره 2 (پیاپی 38، پاییز 1399)

  • تاریخ انتشار: 1399/10/23
  • تعداد عناوین: 15
|
  • مژده میرکی، هرمز سهرابی*، پرویز فاتحی، ماتیاس کناب صفحات 1-10

    شناسایی گونه های درختی برای انواع فعالیت های مدیریت و نظارت بر منابع طبیعی از جمله آماربرداری، ارزیابی خطر آتش سوزی، نظارت بر تنوع زیستی و بهبود زیستگاه حیات وحش از اهمیت ویژه ای برخوردار است. در طی سالیان اخیر، پیشرفت در فن آوری سنجش از دور امکان طبقه بندی گونه های درختی در سطح تک درخت را با استفاده از سنجنده های مختلف فراهم کرده است. در این بین استفاده از تصاویر رنگی واقعی مبتنی بر پهپاد به دلیل سهولت در استفاده و مقرون به صرفه بودن به یک انتخاب محبوب تبدیل شده است. اما با توجه به نتایج متفاوت الگوریتم های شناسایی درختان در توده های مختلف، لازم است که تاثیر استفاده از الگوریتم ها بر دقت شناسایی درختان در گونه های مورد مطالعه داخل کشور مورد بررسی قرار گیرد. بنابراین هدف ما در این تحقیق شناسایی گونه های پهن برگ جنگلی با استفاده از تصاویر پهپاد با وضوح مکانی بالا و مقایسه عملکرد الگوریتم های ناپارامتری ماشین بردار پشتیبان، جنگل تصادفی و شبکه عصبی مصنوعی و الگوریتم پارامتری تحلیل تشخیص خطی در طبقه بندی درختان بود.  به همین منظور تصویربرداری و برداشت زمینی درختان در خرداد 1398 در قسمت جلگه ای جنگل های شهرستان نور در مجاورت پارک جنگلی نور انجام شد. پس از پردازش تصاویر، اورتوموزاییک جنگل مورد مطالعه با انداره پیکسل 5/2 سانتی متر با استفاده از الگوریتم ساختار حرکت مبنا تولید شد. سپس باندهای اصلی، شاخص ها و نسبت های باندی به دست آمده از اورتوموزاییک به عنوان داده ورودی در الگوریتم های طبقه بندی مورد استفاده قرار گرفت.  نتایج نشان داد که الگوریتم پارامتری تحلیل تشخیص خطی با صحت کلی 87/0 بهترین نتیجه را برای طبقه بندی درختان ارایه داد. همچنین گونه سفیدپلت (صحت کاربر 97/0) و گونه انجیلی (صحت کاربر 72/0) به ترتیب بیشترین و کمترین صحت طبقه بندی را نشان دادند. در کل نتایج این تحقیق نشان داد که تصاویر پهپاد در جنگل های جلگه ای خزری قابلیت طبقه بندی و شناسایی درختان با الگوریتم های مختلف را دارد.

    کلیدواژگان: تحلیل تشخیص خطی، ماشین بردار پشتیبان، جنگل تصادفی، شبکه عصبی مصنوعی، پهپاد، شاخص های طیفی
  • پرویز حسن پور، بختیار فیضی زاده*، خلیل ولیزاده کامران صفحات 11-21

    زیرساخت داده های مکانی (SDI) Spatial Data Infrastructure به مجموعه ای پایه از فناوری ها، سیاست گذاری ها و ترتیبات سازمانی اطلاق می گردد که بستری را جهت به اشتراک گذاشتن اطلاعات مکانی برای کاربران در تمامی سطوح سازمانی تا ملی و بین المللی ایجاد می کند. تحقیق حاضر به لحاظ ماهیت و روش توصیفی- تحلیلی و به لحاظ هدف کاربردی است. جامعه آماری پژوهش شامل کارشناسان سازمان جهاد کشاورزی است و نمونه آماری واحد های کلیدی موثر در SDI  می باشد. به منظور مطالعه و ارزیابی سازمان جهاد کشاورزی استان آذربایجان غربی از نظر پیاده سازی SDI، ابتدا عوامل و موارد موثر در اجرا و پیاده سازی موفق SDI سازمانی شناسایی شده و در قالب پرسشنامه ای طی انجام مصاحبه های تخصصی جمع آوری شد. پس از جمع آوری اطلاعات از تحلیل های شبکه ای استفاده شده و این معیارها مورد ارزیابی قرار گرفتند. نتایج این قسمت بیانگر این مهم است که به ترتیب متغیرهای مرتبط با موجودیت داده های مکانی، انگیزش، مهارت، ادراک، سیاست، منابع مالی، ساختار سازمانی، فناوری، منابع انسانی و وضعیت اطلاعاتی بالاترین رتبه را به خود اختصاص داده اند. نتایج کلی تحقیق نیز نشان می دهد که در سطح سازمان آگاهی و ادراک نسبت به SDI پایین است و همچنین نبود سیاست و دستورالعمل های مشخص برای تولید داده و ذخیره سازی و اشترک گذاری داده یکی از چالش های مهم این سازمان است. با این حال وجود انگیزه بالا و بستر های مخابراتی برای تبادل داده بین سازمان ها و سیستم های کامپیوتری مناسب از نقاط قوت بسیار مهم برای پیاده سازی موفقیت آمیز SDI می باشد. در ادامه با استفاده از مقیاس لیکرت امکان پیاده سازی موفقیت آمیز بودن SDI مورد بررسی و تجزیه و تحلیل قرار گرفت و نتایج نشان داد که حداقل شانس پیاده سازی SDI در حالت بدبینانه 7/60 درصد و در حالت خوش بینانه 37/85 درصد می باشد. جمع بندی حاصل از نتایج شناخت نیازسنجی و امکان سنجی نشان می دهد که با توجه به شرایط زمینه ی استقرار SDI در سازمان جهاد کشاورزی آذربایجان غربی فراهم می باشد.

    کلیدواژگان: زیرساخت اطلاعات مکانی (SDI)، امکان سنجی، GIS، جهاد کشاورزی، آذربایجان غربی
  • زاهده ایزکیان*، محمدسعدی مسگری صفحات 23-37

    در سال های اخیر با پیشرفت فناوری های جمع آوری اطلاعات و فراهم شدن حجم عظیمی از داده های پیچیده همچون سری های زمانی نیاز به روش هایی مناسب به منظور تجزیه و تحلیل این نوع داده بیش از پیش احساس می شود. از میان روش های مختلف داده کاوی موجود تکنیک خوشه بندی داده ها با هدف ساده سازی مجموعه داده های بزرگ و استخراج اطلاعات مفید توجه بسیاری از محققین علوم کامپیوتر را به خود جلب کرده است. مسئله ی انتخاب تابع فاصله یکی از مهم ترین چالش هایی است که پیش از آغاز فرآیند خوشه بندی سری های زمانی مورد توجه قرار می گیرد. انتخاب تابع فاصله ی مناسب یک مجموعه داده به شناخت ماهیت داده پیش از انجام عملیات خوشه بندی وابسته می باشد و از این رو امری پیچیده و زمانبر می باشد. از سویی دیگر تاکنون توابع فاصله ی مختلفی با ویژگی ها و نقاط قوت متفاوت به منظور اندازه گیری میزان تفاوت/شباهت میان سری های زمانی پیشنهاد داده شده است. چگونگی ارایه ی یک روش خوشه بندی با قابلیت بهره جستن از ویژگی های توابع فاصله ی مختلف به طور همزمان و بدون نیاز به شناخت ماهیت داده ها پیش از آغاز فرآیند خوشه بندی، چالش اصلی این تحقیق می باشد. به منظور حل این مسئله در این تحقیق یک روش خوشه بندی با ترکیب روش خوشه بندی Fuzzy C-Means (FCM) و الگوریتم شناخته شده ی مبتنی بر هوش جمعی انبوه ذرات (PSO) با هدف استفاده از توابع فاصله ی مختلف با وزن های متفاوت در حین فرآیند خوشه بندی پیشنهاد داده شد. انتخاب تابع هدف در این مطالعه به گونه ای بوده است که نتیجه ی حاصل از خوشه بندی بیشترین اشتراک را با نتایج خوشه بندی حاصل از توابع فاصله ی مختلف داشته باشد. به عبارت دیگر روش خوشه بندی ارایه شده در این تحقیق یک روش خوشه بندی توافقی می باشد که نتیجه حاصل توافق میان توابع فاصله ی مختلف می باشد. روش پیشنهادی ارایه شده در این تحقیق با در نظر گرفتن سه تابع فاصله ی مختلف بر روی هفت سری مجموعه داده ی شناخته شده از سری های زمانی پیاده سازی شد و با پنج روش دیگر مقایسه گردید نتایج حاصل از این مقایسه نشان داد روش ارایه شده در این تحقیق در بیشتر از 85 درصد موارد بهتر از سایر روش ها عمل کرده است.

    کلیدواژگان: داده کاوی، خوشه بندی، تابع فاصله، سری زمانی، Fuzzy C-Means، الگوریتم انبوه ذرات
  • محمد کاوه، مهران یزدی، مریم دهقانی*، محمود شرزه یی صفحات 39-56

    ایجاد خطای تروپسفری بر روی داده های تداخل سنجی راداری یکی از مهترین چالش های استفاده از این تکنیک است. خطای تروپسفری به دلیل تغییر پارامترهای جوی دما، فشار و رطوبت بین تصاویر پایه و پیرو رخ می دهد. در این تحقیق به منظور بررسی و نتیجه گیری در مورد معرفی روشی کارآمد برای کاهش اثر تروپسفری از دو روش مبتنی بر فیلترهای مکانی-زمانی و روش محاسبه تاخیر فاز بر اساس داده های سنجنده [1]MERIS استفاده شد. منطقه مورد مطالعه در این تحقیق گسل تسوج در شمال غرب ایران و هدف اندازه گیری جابجایی بر اثر سیگنال میان لرز بر روی آن است. جهت پردازش داده های [2]SAR، روش پراکنش کننده های پایدار با استفاده از تکنیک [3]StaMPS مورد استفاده قرار گرفت. داده های راداری مورد استفاده در این پژوهش 12 تصویر بالاگذر از سنجنده ASAR ماهواره ENVISAT بین سال های 2004 تا 2008 بودند. به دلیل وجود اثر اتمسفر، سری زمانی حاصل از روش پراکنش کننده های پایدار دارای نوسانات زیادی خواهد بود که باید کاهش یابد. در روش مبتنی بر فیلترهای مکانی-زمانی با توجه به رفتار اتمسفر به صورت ناهمبسته در زمان و همبسته در مکان از اعمال فیلتر بالا گذر در زمان و پایین گذر در مکان مبادرت به استخراج اثر اتمسفر نموده و از نتایج حاصل از سری زمانی تداخل سنجی راداری حذف شد. در روش دوم، به کمک محصول بخار آب داده های سنجنده MERIS، تاخیر فاز ناشی از لایه تروپسفر محاسبه و به نتایج حاصل از تداخل سنجی اعمال گردید. جهت ارزیابی نتایج حاصل از کاهش اثر اتمسفر، اندازه گیری های GPS مورد استفاده قرار گرفت. دو معیار کمی خطای جذر میانگین مربعات  (RMSE)ناشی از اختلاف بین سری زمانی GPS و سری زمانی تصحیح شده و نیز انحراف معیار سری زمانی تصحیح شده جهت بررسی کاهش نوسانات ناشی از اتمسفر بکار گرفته شد. بر اساس این ارزیابی روش مبتنی بر فیلترهای مکانی-زمانی عملکرد مناسب تری را در کاهش اثر تروپسفری در مقایسه با روش مبتنی بر داده های سنجنده MERIS نشان داد. مقدار RMSE و انحراف معیار منتج از روش فیلترهای مکانی - زمانی در بهترین حالت مقدار 13 و 40 میلیمتر می باشد.

    کلیدواژگان: پراکنش کننده های پایدار، تصحیحات تروپسفری، GPS، MERIS، میان لرز
  • بهرام صادقی، فرهاد صمدزادگان، فرزانه دادرس جوان* صفحات 57-78

    طبقه بندی سه بعدی عوارض شهری یکی از مهم ترین ابزارهای مدیریت شهری و مبنای بسیاری از آنالیزها در فتوگرامتری است؛ بنابراین به عنوان ورودی در بسیاری از کاربرد ها همچون برنامه ریزی، مدیریت شهری و مدیریت بحران مورد استفاده قرار می گیرد. از آنجایی که ابر نقاط حاصل از تناظریابی متراکم تصاویر در مناطق شهری به علت مشاهده مستقیم ویژگی های خطی، کارایی بیشتر نسبت به ابر نقاط حاصل از لیزر اسکنر هوایی دارند و از لحاظ هزینه نیز مقرون به صرفه است؛ به همین دلیل در این تحقیق برای طبقه بندی، از ابر نقاط حاصل از تناظریابی متراکم تصاویر استفاده شده و جهت افزایش دقت طبقه بندی نیز، این تصاویر به وسیله دوربین چند طیفی Micasense RedEdge اخذ شده است. یکی از چالش های موجود در دوربین های چند طیفی، هم مرجع سازی باند ها می باشد؛ که در این تحقیق از الگوریتم SIFT برای استخراج نقاط متناظر هر باند استفاده شده است. به این ترتیب باند ها با یکدیگر ترکیب شده تا یک ترکیب رنگی (تصویر) از هر سه باند ایجاد شود. با این کار دو مجموعه تصاویر تولید شده است که از این دو مجموعه تصاویر، دو ابر نقطه با استفاده از فن تناظریابی متراکم تصاویر تولید می شوند. ابر نقاط با استفاده از روش درون یابی نزدیک ترین نقاط همسایه با یکدیگر تلفیق شده اند تا یک ابر نقطه چند طیفی حاصل شود. در انتها طبقه بندی ابر نقطه چند طیفی، با استفاده از الگوریتم جنگل تصادفی[1]و با ویژگی های هندسی و چند طیفی، به سه صورت اقدام شده است که شامل استفاده جداگانه از اطلاعات طیفی، اطلاعات هندسی و تلفیق اطلاعات طیفی و هندسی با یکدیگر می باشد. نتایج نشان دهنده بهبود 25 درصدی دقت در روش تلفیق اطلاعات طیفی و هندسی نسبت به روش استفاده جداگانه از اطلاعات طیفی می باشد و نیز بهبود 32 درصدی دقت در روش تلفیق اطلاعات طیفی و هندسی نسبت به روش استفاده جداگانه از اطلاعات هندسی می باشد؛ همچنین بین روش استفاده از اطلاعات چند طیفی و روش استفاده از اطلاعات مریی (RGB) مقایسه ای انجام شده است که نتایج نشان دهنده برتری 5 درصدی دقت روش استفاده از اطلاعات چند طیفی می باشد.

    کلیدواژگان: طبقه بندی، جنگل تصادفی، تناظریابی متراکم تصاویر، تصاویر چند طیفی، هم مرجع سازی باندها، ابرنقطه
  • مرجان آهنگرها، محمد سعادت سرشت، رضا شاه حسینی*، سید تیمور سیدی صفحات 79-89

    آشکارسازی تغییرات باهدف تجزیه وتحلیل دو یا چند تصویر از یک منطقه که در زمان های مختلف به دست آمده اند، انجام می گیرد که به طورکلی یکی از مهم ترین کاربردهای تصاویر ماهواره ای در تحلیل توسعه شهری، پایش محیطی و کشاورزی، ارزیابی خطر و ارزیابی تخریب بلایای طبیعی است. ازآنجایی که حل مسایل مربوط به آشکارسازی تغییرات به صورت دستی یک عملیات وقت گیر است، به همین دلیل در این پژوهش یک روش کشف تغییرات مبتنی بر الگوریتم یادگیری عمیق جهت تولید نقشه تغییرات در مناطق کشاورزی ارایه شده و از شبکه های یادگیری عمیق به منظور استخراج خودکار ویژگی ها استفاده شد. هدف در این مقاله بکارگیری الگوریتم های یادگیری عمیق  از نوع شبکه های کانوولوشنی به منظور شناسایی سطح زیر کشت محصولات کشاورزی با استفاده از تصاویر فراطیفی است. یکی از انگیزه های اصلی این کار، قابلیت مناسب این شبکه های یادگیری عمیق در شناسایی تغییرات در مناطق با پیچیدگی طیفی بالا هستند. پس از به دست آوردن تصاویر اختلاف با استفاده از الگوریتم حدآستانه گذاری اتسو، نقشه تغییرات دودویی اولیه تولید می شود. در مرحله بعد با استفاده از شبکه های کدگذار خودکار به استخراج ویژگی پرداخته و از شبکه های کانوولوشنی جهت طبقه بندی پیکسل ها به دو کلاس تغییر و کلاس بدون تغییر استفاده شد. نهایتا با ساخت مدل یادگیری عمیق و ارزیابی دقت، نقشه تغییرات نهایی تولید شد. نتایج حاصل، نشان دهنده پتانسیل بالای استفاده از روش های یادگیری عمیق در مسایل آشکارسازی تغییرات با استفاده از تصاویر فراطیفی می باشد. به منظور ارزیابی دقت و کارایی روش پیشنهادی، از تصاویر اخذ شده توسط سنجنده هایپریون مربوط به دو مجموعه داده ابرطیفی از مزارع کشاورزی هرمیستن واقع در آمریکا، و منطقه دارای پوشش های گیاهی متنوع در اطراف تالاب شادگان واقع در جنوب خوزستان، استفاده و الگوریتم پیشنهادی مورد ارزیابی قرارگرفته است. روش پیشنهادی کشف تغییرات مبتنی بر یادگیری عمیق دارای دقت کلی 95% و ضریب کاپا 0.86 می باشد.

    کلیدواژگان: یادگیری عمیق، آشکارسازی تغییرات، شبکه های عصبی کانوولشنی، شبکه های کدگذار خودکار، سنجش ازدور، تصاویر فراطیفی
  • حسن شهریاری، حسن امامی* صفحات 91-109

    در این تحقیق، ارتباط موثرترین عوامل محیطی (پوشش گیاهی، دمای سطح، شیب، جهت شیب، سرعت و جهت باد) و عوامل انسانی (نزدیکی به جاده ها و مناطق مسکونی) بصورت یک مدل ریاضی با وقوع و انتشار آتش در منطقه جنگلی حفاظت شده ارسباران، مورد بررسی قرار گرفته و جهت اعتبار سنجی نتایج، از داده های آتش سوزی های پیشین استفاده شده است. برای این منظور، از تصاویر ماهواره ای لندست 8، مدل رقومی ارتفاعی زمین، سرعت و جهت باد و سایر پارامترها با استفاده از تلفیق روش های سنجش از دور و سیستم اطلاعات جغرافیایی استفاده گردید.  ابتدا از تلفیق عوامل محیطی، نقشه مناطق خطر آتش سوزی و نقشه مناطق با ریسک 50 درصدی آتش سوزی تولید گردید. سپس جهت شبیه سازی گسترش آن از مدل های نیمه تجربی الکساندریس و اتوماسیون سلولی استفاده گردید و جهت بهینه سازی پارامترها از الگوریتم ژنتیک استفاده شده است. نتایج ارزیابی مقادیر ضرایب هم بستگی نرمال شده پارامترهای عوامل محیطی، نشان داد که به ترتیب شاخص پوشش گیاهی، دمای سطح زمین، جهت شیب و شیب دارای 20/29%، 11/29%، 93/21% و 75/19% بالاترین میزان هم بستگی با نقشه خطر وقوع آتش سوزی دارند و حدود %17 منطقه دارای پتانسیل خیلی زیاد و بیش تر از 50 درصد منطقه در وضعیت خطر زیاد برای آتش سوزی قرار دارند. علاوه بر عوامل محیطی، بررسی ارتباط عوامل انسانی با خطر آتش سوزی نشان داد که نزدیکی با جاده بیش ترین سهم را در وقوع آتش سوزی در منطقه را دارد. همچنین نتایج شبیه سازی، نشان داد که با تلفیق مدل نیمه تجربی الکساندریس با مدل نیمه تجربی اتوماسیون سلولی، گسترش آتش سوزی در ناحیه اول تست با دقت کلی56/95 % و کاپا 14/91% درصد و در ناحیه دوم تست با دقت کلی62/94 %  و کاپا  13/90% در مقایسه با داده های مرجع حاصل گردید. این نتایج، با نتایج مطالعات شیبه سازی در گسترش آتش سوزی انطباق خوبی داشت. لذا از فرآیند شبیه سازی، می توان جهت حفاظت کارامد از جنگل ها استفاده کرد.

    کلیدواژگان: آتش سوزی جنگل، شبیه سازی گسترش آتش، منطقه ارسباران، سنجش از دور
  • مهرنوش قدیمی*، علی درخشان صفحات 111-117

    سدها یکی از سازه های مهم و زیر بنایی هر کشور محسوب می شود. به دلیل حجم قابل توجه آب در مخزن سدها، بروز آسیب و خرابی در آنها خسارات مالی و جانی جبران ناپذیری به همراه دارد. لذا با نصب ابزار دقیق در بدنه سد و عملیات میکروژیودزی مساله پایداری و ایمنی سدها با حساسیت بالا پایش می شود. با این وجود گاها رفتارهای غیر طبیعی در بدنه و تکیه گاه های سدها رخ می دهد که با برداشت های حاصل از ابزار دقیق سد مطابقت ندارد. در سالهای اخیر با پیشرفت و توسعه ای که در تهیه تصاویر راداری و پردازش آنها ایجاد شده است زمینه پایش تغییر شکل های سازه های بزرگ نظیر سدها و پلها با دقت قابل قبول فراهم شده است. در این تحقیق جابجایی و تغییر شکل غیر متعارفی که در رویه پایین دست بدنه سد طالقان رخ داده است بوسیله تصاویر Sentinel-1A در بازه زمانی 2014 -2019 مورد بررسی قرار گرفت و نتایج آن y mm/4 نشان داد که با داده های حاصل از برداشت ابزار دقیق منصوبه در بدنه مقایسه گردید. نتایج نشان می دهد که جابجایی رخ داده مربوط به لایه بیرونی و حفاظتی بدنه سد (ریپ رپ) بوده و ارتباطی با رفتار بدنه سد ندارد.

    کلیدواژگان: تداخل سنجی راداری، رفتارنگاری سد طالقان، Sentinel1-A، نشست سنج
  • امیدرضا عباسی*، علی اصغر آل شیخ صفحات 119-129

    در سال های اخیر محتوای منتشرشده بر روی وب به طور چشمگیری افزایش یافته است. بخش عمده ای از این اطلاعات به صورت نیمه ساختاریافته در اختیار عموم قرار دارند. علاوه بر این، حجم عظیمی از اطلاعات مرتبط با محل هستند. این گونه اطلاعات به یک مکان بر روی زمین اشاره دارند، اما دارای مختصات صریح آن محل نیستند. در این مقاله به مکان مرجع سازی منابع نیمه ساختاریافته در وب با استفاده از یادگیری ماشین پرداخته شده است. مزیت این روش عدم نیاز به استفاده از روش های پیچیده متن کاوی جهت مکان مرجع سازی است. بدین منظور، از آگهی های تبلیغاتی تارنمای دیوار مرتبط با املاک و مستغلات در شهر تهران استفاده شده است. به منظور جمع آوری داده از روش خزیدن در وب بهره برده شده است. همچنین، جهت دستیابی به هدف تحقیق، الگوریتم جنگل های تصادفی به عنوان یک روش یادگیری ماشین مناسب بکار گرفته شده است. نتایج تحقیق نشان می دهد که با استفاده از این روش، آگهی های تبلیغاتی تارنمای دیوار با دقت مناطق تهران قابل مکان مرجع سازی است. به طور کمی، دقت بدست آمده در این تحقیق حدود 6 کیلومتر در راستای طول جغرافیایی و حدود 2 کیلومتر در راستای عرض جغرافیایی است. همچنین، نتایج این تحقیق نشان می دهد که متغیر قیمت ملک نسبت به دیگر متغیرها از اهمیت و تاثیر بیشتری در تعیین مکان آگهی برخوردار است. علاوه بر این، از نتایج این تحقیق می توان نتیجه گرفت که قیمت املاک در شهر تهران در راستای شمالی - جنوبی دارای الگوی مکانی بیشتری نسبت به راستای شرقی - غربی هستند.

    کلیدواژگان: مکان مرجع سازی، اطلاعات محل مبنا، منابع تحت وب، جنگل های تصادفی
  • سیامک حیدری وارسته، سید روح الله عمادی*، یحیی جمور صفحات 131-139

    تعیین  بخار آب موجود در جو نقش به سزایی در پیش بینی شرایط آب و هوایی و مطالعات بارش دارد. به همین دلیل مطالعه ی تاخیر تروپسفری مخصوصا مولفه ی تر که ناشی از وجود بخار آب در جو می باشد از اهمیت بسیار زیادی برخوردار است. در این مقاله مقدار بخار آب توسط داده های رادیومتر ماهواره ی ارتفاع سنجی و داده های GPS برآورد شد، که نتایج حاصل از GPS مبنا قرار داده شد و نتایج حاصل از ارتفاع سنجی ماهواره ای با آن مقایسه شد. برای این منظور مشاهدات عبورهای 16 و 133 ماهواره ی جیسون- 3 با دوره ی زمانی 10 روزه در سال 2018 مورد استفاده قرار گرفت. بعد از پردازش مشاهدات ماهواره ی ارتفاع سنجی با استفاده از نرم افزار BRAT 3.3، مقدار میانگین بخار آب بارش زا در این روش برای شهرهای تنکابن، ارومیه و بندرعباس به ترتیب 45، 44 و 30 میلی متر بدست آمد. در روش GPS ، با بهره گیری از الگوریتم تعیین موقعیت مطلق نقطه ای دقیق PPPتاخیر تروپسفری کل در راستای قایم  ZTD بدست آمد و سپس تاخیر هیدرواستاتیک (ZHD) از تاخیر کلی کسر و در نهایت با اعمال ضریب تبدیل  ذیربط به تاخیر غیرهیدرواستاتیک (ZWD)، مقدار بخار آب بارش زا برآورد شد. با پردازش مشاهدات GPS سه ایستگاه دایمی تنکابن، ارومیه و بندرعباس در سال 2018 متناظر با مشاهدات عبورهای 16 و 133 ماهواره ی جیسون- 3 با فاصله ی زمانی 10 روزه و با استفاده از نرم افزارBernese 5.2 ، مقدار میانگین بخار آب بارش زا به ترتیب 47، 45 و 31 میلی متر برآورد شد. در نهایت مقدار RMS و انحراف معیار حاصل از دو روش به ترتیب 1 تا 1.5 میلی متر و 5 تا 5.5 میلی متر برآورد شد. نزدیکی نتایج بدست آمده از دو روش مذکور، نشان دهنده ی توافق و سازگاری بسیار بالا بین این دو روش با ضریب همبستگی حدود 98/0 و قابلیت ترکیب آنها برای مطالعات اقلیمی و آب و هوایی است.

    کلیدواژگان: بخار آب بارش زا، تروپسفر، GPS، ارتفاع سنجی ماهواره ای، ماهواره ی جیسون
  • وحید هاشمی*، محمد سعدی مسگری، پویا محمدی کزج صفحات 141-163

    افزایش بی رویه تعداد وسایل نقلیه در شهرها منجر به مشکلات متعددی ازجمله آلودگی هوا، آلودگی صوتی و مشکلات ترافیکی می شود. جهت غلبه بر این مشکلات نیازمند به کارگیری روش های نوین در بحث مدیریت شهری مانند به کارگیری سامانه های حمل ونقل نوین همچون سیستم اشتراک سواری هستیم. هدف از این مطالعه ایجاد و پیاده سازی مدلی مناسب، برای اشتراک سواری با به کارگیری خودروهایی با ظرفیت مختلف و با استفاده از الگوریتم ژنتیک ارتقا یافته است تا بتوان از طریق گروه بندی مسافرانی که به لحاظ پارامترهای مکانی-زمانی سفر شباهت دارند، صندلی های خالی وسایل نقلیه و به تبع آن تعداد وسایل عبوری در سطح شهر را کاهش داد. از طرفی مسیری بهینه برای هر گروه از مسافران برنامه ریزی نمود به نحوی که مسافت سفر هر گروه و به تبع میزان معطلی در طول سفر برای هر یک از مسافران و رانندگان نیز کمینه شود. ازاین رو در این الگوریتم چهار تابع هدف، کمینه سازی مسافت پیموده شده مجموع سفرها، مجموع زمان معطلی (انحراف از زمان های ایده آل) در مبدا و مقصد مسافران، تعداد وسایل نقلیه استفاده شده و تعداد صندلی های خالی در نظر گرفته شده اند. در این تحقیق از دو عملگر جهش ابتکاری و دو الگوریتم جست وجوی محلی تحت عناوین الگوریتم مبتنی بر ژنتیک و الگوریتم ابتکاری مبتنی بر اولویت زمان سفر مسافران به منظور ارتقا الگوریتم ژنتیک برای این حالت خاص استفاده شده است. سپس الگوریتم ارتقا یافته جهت حل مسئله اشتراک سواری روی یک شبکه فرضی با تعداد 46 گره پیاده سازی شده است. درنهایت حالات مختلف الگوریتم و استفاده از عملگرهای توسعه یافته طی سناریوهایی مختلف تست، ارزیابی و مقایسه شدند.

    کلیدواژگان: اشتراک سواری، الگوریتم ژنتیک ارتقا یافته، عملگرهای جهش ابتکاری، الگوریتم های جست و جوی محلی
  • معصومه ندری، مهدی آخوندزاده هنزائی* صفحات 165-174

    زلزله یکی از مخرب‎ترین بلایای طبیعی است که به طور جامع پیش بینی آن تاکنون محقق نگشته است. تحقیقات پیشین نشان داده‎اند به کمک داده‎های سنجش از دور می‎توان به اطلاعاتی دسترسی پیدا کرد که نشان‎دهنده رابطه‎ای معنادار بین وقوع نابهنجاری در تغییرات برخی پارامترهای فیزیکی و شیمیایی با وقوع زلزله هستند. این پارامترهای فیزیکی و شیمیایی همان پیش نشانگرهای زلزله هستند. یکی از پیش نشانگرهایی که ارتباط آن با زلزله‎های ساحلی در سال‎های اخیر مورد مطالعه برخی از پژوهشگران واقع شده، میزان کلروفیل موجود در سطح آب است. پارامتر کلروفیل-‎‎آ از طریق روش‎های مختلفی از جمله روش‎های آزمایشگاهی طیف سنجی، اندازه‎گیری فلورسانس کلروفیل و یا از طریق داده‎های ماهواره‎ای و با بکارگیری الگوریتم‎های شاخص رنگ (CI) و نسبت باند‎ریلی (OCX) و غیره بدست می‎آید. با بررسی سری‎های زمانی کلروفیل پنج زلزله بزرگ حاصل از محصولات سنجنده مودیس  (MODIS) بر روی سکوهای آکوا (Aqua) و ترا (Terra) و با استفاده از الگوریتم جنگل تصادفی مشاهده شد که  انتشار انرژی حرارتی و گازهای متصاعد زمین بر اثر فعالیت‎های صفحات تکتونیکی و یا دیگر فعالیت‎های فیزیکی و شیمیایی پوسته زمین قبل، هنگام و بعد از وقوع زلزله‎های ساحلی و نزدیک به ساحل می‎تواند به تغییر در میزان کلروفیل سطح آب منجر شود و این پارامتر می‎تواند به عنوان یک پیش نشانگر زلزله در تحقیقات بعدی مورد بررسی قرار گیرد.

    کلیدواژگان: زلزله، کلروفیل، جنگل تصادفی، مودیس، ناهنجاری
  • احسان نکوزاده چهارمحالی*، جمال عسگری صفحات 175-188

    پارامتر تاخیر تروپسفری یکی از منابع مهم خطا در بحث تعیین موقعیت است. در شبکه های RTK مقدار این پارامتر به صورت نسبی بین ایستگاه های مرجع برآورد شده و سپس با استفاده از درون یابی برای ایستگاه سیار محاسبه می شود. با توجه به اینکه اندازه ی این کمیت به طور مستقیم تابعی از ارتفاع ایستگاه مشاهدات می باشد، در مواردی که اختلاف ارتفاع بین ایستگاه سیار و ایستگاه های مرجع زیاد باشد، انتظار می رود که دقت درون یابی این کمیت به طور چشمگیری کاهش یابد. برای بررسی این مساله، در این مقاله دقت درون یابی این پارامتر برای دو شبکه به نام های سیما و Ebry که دارای ساختار ارتفاعی متفاوتی هستند، بررسی شده است. هر یک از این دو شبکه متشکل از پنج گیرنده ی GNSS می باشند که در آن ها یک گیرنده در مرکز شبکه به عنوان گیرنده ی سیار در نظر گرفته شده و سایر گیرنده ها به عنوان ایستگاه های مرجع در نظر گرفته شده اند. در شبکه ی اول اختلاف ارتفاع گیرنده ی مرکزی و متوسط ارتفاع سایر گیرنده ها، 122 متر و در شبکه ی دوم 1095 متر می باشد. در این دو شبکه ابتدا مقادیر تاخیر تروپسفری مطلق در راستای قایم با استفاده از پردازش مشاهدات ایستگاه های مرجع به روش PPP برآورد شده و سپس در حالت تفاضلی دوگانه برای موقعیت گیرنده ی سیار درون یابی شد. پس از محاسبه ی پارامترهایی چون حداکثر و حداقل خطا، انحراف معیار و خطای جذر میانگین مربعات برای مقادیر درون یابی شده ی تاخیر تروپسفری، مشخص شد که دقت درون یابی در شبکه ی دوم با توجه به اختلاف ارتفاع بین ایستگاه سیار و ایستگاه های مرجع، به طور قابل توجهی کاهش می یابد. بنابراین در ادامه ی مقاله روشی جدید جهت درون یابی تاخیر تروپسفری ارایه شده است که با استفاده از یک رابطه ی فیزیکی به نوعی اثر ارتفاع را از مساله ی درون یابی حذف نموده و در نتیجه دقت درون یابی را به طورقابل توجهی افزایش می دهد. پس از بررسی ها مشخص شد که اگرچه استفاده از این روش دقت درون یابی در هر دو شبکه افزایش می دهد، اما میزان افزایش دقت در شبکه ی دوم با توجه به ساختار این شبکه بسیار بیشتر است. به گونه ای که متوسط خطای درون یابی در شبکه ی سیما از 32 میلیمتر به 9 میلیمتر و در شبکه ی Ebry از 228 میلیمتر به 14 میلیمتر کاهش یافته است. به عبارت دیگر با استفاده از روش ارایه شده، دقت درون یابی در این دو شبکه به ترتیب 2/69 درصد و 7/93 درصد افزایش یافته است.

    کلیدواژگان: درون یابی، تاخیر تروپسفری، تعیین موقعیت تفاضلی، شبکه ی تعیین موقعیت کینماتیک آنی، تعیین موقعیت مطلق دقیق
  • علی حیدری، یزدان عامریان*، هانی محبوبی صفحات 189-198

    تغییرات مکانی-زمانی یونسفر به دو دسته منظم و نامنظم تقسیم می شود. تغییرات منظم شامل تغییرات روزانه، تغییرات مرتبط با عرض جغرافیایی و تغییرات مرتبط با فعالیت خورشیدی می شود. اغتشاشات یونسفری متحرک (TID) یکی از تغییرات نامنظم یونسفر بوده که در سه دسته کوچک، متوسط و بزرگ مقیاس طبقه بندی می شود. اغتشاشات یونسفری متحرک متوسط مقیاس (MSTID) که عامل اصلی وقوع آن، امواج ثقل اتمسفری (AGW) است، مانع اصلی درون یابی دقیق تصحیحات یونسفری در یک شبکه سیستم تعیین موقعیت جهانی (GPS) محسوب می شود، بنابراین کشف و مدل سازی آن امری ضروری به نظر می رسد. هدف این مقاله، کشف و مدل سازی MSTID با استفاده از مشاهدات فاز موج حامل در منطقه ایران است. همچنین مقادیر محتوای الکترون کلی (TEC) بازیابی شده از مشاهدات GPS نیز جهت تایید نتایج مشاهدات فاز موج حامل، استفاده شده است. MSTID موج گونه هایی هستند که دارای پارامترهایی نظیر دامنه، سرعت، جهت، مدت زمان سیر و طول موج می باشند که استخراج آن ها هدف مدل سازی MSTID است. در حالت کلی، MSTID را می توان موجی مسطح و طولی در نظر گرفت، بنابراین برای محاسبه دامنه، سرعت و طول موج، پروفیلی از تغییرات  در واحد TECU در یک عرض ثابت در نظر گرفته می شود. با بررسی میزان جابجایی ماکزیمم مقدار این پارامتر در یک بازه زمانی مشخص، سرعت امواج MSTID تعیین می گردد. جهت محاسبه طول موج نیز از آنالیز موجک استفاده شد. نتایج حاصل به این شرح است که MSTID در جهت جنوب غرب به شمال شرق با سرعت معادل 100 متر بر ثانیه و طول موجی برابر 232 کیلومتر حرکت می کنند. دامنه این اغتشاشات در حدود 02/0 در واحد TECU به دست آمد که در این صورت به طور میانگین باعث ایجاد خطای به اندازه 4 میلی متر در مشاهدات فاز موج حامل می شود. مشاهدات فاز موج حامل با دقت یک صدم سیکل قابل اندازه گیری هستند که با ضرب کردن این مقدار در طول موج های سیگنال GPS دقت این مشاهدات به طور میانگین در حدود 2 میلی متر خواهد بود. بنابراین خطایی که به سبب MSTID رخ می دهد در مقایسه با دقت مشاهدات فاز موج حامل قابل توجه بوده و باید در نظر گرفته شود.

    کلیدواژگان: اغتشاشات یونسفری متحرک متوسط مقیاس، سیستم تعیین موقعیت جهانی، محتوای الکترون کلی، فاز موج حامل
  • مرتضی حیدری مظفر*، مسعود ورشوساز، محمد سعادت سرشت صفحات 199-207

    تکنولوژی لیزراسکنر زمینی، سرعت جمع آوری داده ها برای تولید نقشه در مهندسی نقشه برداری را دگرگون نموده است. برداشت کامل محدوده مورد نظر نقشه برداری بدون جابه جایی دستگاه لیزراسکنر در بسیاری از موارد، امکان پذیر نیست. جاافتادگی در جمع آوری داده ها، جزء جدایی ناپذیر استفاده از این نوع از دستگاه ها می باشد. برای حل این مساله، دستگاه لیزراسکنر بایستی در نقاط مختلف قرار گرفته و عملیات اسکنینگ انجام شود. افزایش تعداد نقاط اسکن باعث ایجاد افزونگی داده از یک طرف و از سوی دیگر باعث افزایش هزینه های محاسباتی و ریالی پروژه خواهد بود. پارامترهای مختلفی بر انتخاب یک نقطه بعنوان محل برداشت وجود دارد که هر یک از این پارامترها در کاهش مدت زمان مورد نیاز برای برداشت و همچنین کامل بودن داده های جمع آوری شده، تاثیر بسزایی دارند. جاافتادگی به عنوان یکی از مهمترین پارامترهای موثر در انتخاب نقطه برداشت دستگاه در این مقاله مورد توجه قرار گرفته است. در این روش با استفاده از اطلاعات یک ایستگاه برداشت و ترکیب روش های پردازش تصویری، نواحی پنهان تخمین زده می شود. در روش پیشنهادی برای کاهش پیچیدگی محاسباتی، ابرنقاط برداشت شده توسط دستگاه در یک فضای دوبعدی تصویر شد. این تصویر کردن با استفاده از پارامترهای برداشت در نقطه استقرار انجام می شود. استخراج لبه ها با الگوریتم های Canny و Sobel در فضای تصویر ایجاد شده مورد بررسی قرار گرفت. نتایج نشان می دهد الگوریتم Canny در ترکیب با روش های مورفولوژی مرز نواحی را در فضای تصویر برد بهتر نشان می دهد. قابلیت شناسایی نواحی پنهان در انتخاب نقطه استقرار بهینه بعدی دستگاه قابل استفاده است.

    کلیدواژگان: لیزراسکنر زمینی، ابرنقاط، نواحی پنهان، استخراج لبه، الگوریتم Canny
|
  • M. Miraki, H. Sohrabi*, P. Fatehi, M. Kneubuehler Pages 1-10

    Knowing the tree species combination of forests provides valuable information for studying the forest’s economic value, fire risk assessment, biodiversity monitoring, and wildlife habitat improvement. Fieldwork is often time-consuming and labor-required, free satellite data are available in coarse resolution and the use of manned aircraft is relatively costly. Recently, unmanned aerial vehicles (UAV) have been attended to be an easy-to-use, cost-effective tool for the classification of trees. In fact, given the cost-efficient nature of UAV derived SfM, coupled with its ease of application, it became a popular choice. The type of imagery is an important factor in classification analysis because the spatial and spectral resolution can influence the accuracy of classification. On the other hand, classification algorithms also play an important role in the accuracy of tree species identification. So, this study investigated the performance of four classifiers for tree species classification using UAV-based high-resolution imagery in broadleaf forests and takes a comparative approach to examine the three non-parametric classifiers including support vector machines (SVM), random forest (RF), artificial neural network (ANN), and one parametric classifier including linear discriminant analysis (LDA) classifiers in heterogeneous forests of Noor city located in Mazandaran province. In June 2019, the study area was photographed. The field survey was carried out to record the species and position of the mature overstory trees which were clearly identifiable on the orthomosaics. Individual tree crowns were clipped by one-meter buffer and the digit numbers were summarized at for each tree by computing descriptive statistics from the orthomosaics. Using zonal statistics, mean, standard deviation, variance, unique, range, mode, and median were calculated for raw bands (Red, Green, Blue), vegetation indices (NRB, NGB), and band ratios (G/R, R/B) from RGB orthomosaics. We classified the tree into 4 classes: Parrotia persica (Ironwood tree), Populus capsica (Caspian poplar), Ulmus minor (Common Elm), and Quercus castaneifolia (Chestnut-leaved oak). Finally, the classification algorithms were applied using R software. The classification accuracy for identified trees was performed using 10-fold cross-validation by computing the producer’s accuracy, user’s accuracy, and Overall accuracy. All algorithms resulted in overall accuracies above 80%. Of course, the results showed that, as a parametric algorithm, LDA with an overall accuracy of 0.87 provided the best results for tree classification, because it does not require the tuning of free parameters. As for parameter value, the mean was the most important that this can be related to the similarity of this feature in any sample. Caspian poplar with user accuracy of 0.97 and Ironwood tree with user accuracy of 0.72 had the highest and lowest classification accuracy, respectively. Caspian poplar high accuracy is probably due to its crown color which is quite different from the other species. The main error (misclassification) is a classification between “Ironwood tree” and “Common Elm” classes. This may be caused by the fact that the spectral signatures between Ironwood tree and Common Elm trees are very similar. In general, our study showed that UAV derived orthomosaic can be used for tree classification with very high accuracy in mix broadleaf forests by different algorithms.

    Keywords: Linear Discriminant Analysis, Support Vector Machine, Random Forest, Artificial Neural Network, UAV, Spectral Indices
  • P. Hassanpour, B. Feizizadeh*, Kh. Valizadeh Kamran Pages 11-21

    Spatial data infrastructure (SDI) refers to a basic collection of technologies, policies, and organizational arrangements which creates a platform for sharing location information for users at all levels of the organization up to national and international. patial Data Infrastructure (SDI) is known as a fundamental comprehensive approach of spatial data managing and sharing. Due to the complexity of establishing SDI, creating SDI has been considered as serious challenge, especially in developing countries. Successful and sustainable SDI can be developed when social, organizational and cultural issues are resolved in harmony with the technological ones. The main goal of SDI implementation is to overcome the problem of duplication of data collection by organizations, which leads to wasting financial funds and time. SDIs have been developed for use at global, regional, national, state and local levels.  Technically, SDIs involve a very intricate digital environment, such as a wide range of geospatial databases, networks, standards, metadata, institutional structures and technologies.  The framework of the present research is constructed on the basis of a survey and an SDI readiness model. Following a review of the research background, and taking into account the interaction of relevant indicators, criteria for establishing SDI were identified. This research aims to apply readiness assessment of SDI implementation in enterprise SDI approach. To achieve this goal, the agricultural-Jahad organization was elected as case of enterprise SDI. In this context, within the first step the affecting factors for the successful SDI-implementation were identified and requested data were collected in the form of a questionnaire during the specialized interviews with experts, mangers and decision makers. In this regard, the statues of organization related to spatial data availability, motivation, skill, perception, policy, financial resources, organizational structure, technology, human resources and information status were assessed. Accordingly, the analytical network process (ANP) was applied to compute the criteria weights and determine the significance of each factor for successful SDI implementation. The criteria weights were obtained and decision model was accordingly organized. The overall results also indicate that there is a low level of awareness of SDI in the organization and also one of the major challenges for the organization is the lack of specific policies and guidelines for data generation, data storage and sharing. However, one of the key strengths for successful SDI implementation in Jahad organization is the high motivation and telecommunications platforms for data exchange between organizations and appropriate computer systems. Subsequently, the possibility of successful implementation of SDI was evaluated and analyzed using the Likert scale and the results showed that the minimum chance of SDI implementation in pessimistic mode was 60.7% and in optimistic mode 85.37%. Summary of the results of need assessment and feasibility studies show that it is possible due to SDI deployment conditions in Agriculture Jahad organization of West Azarbaijan province. Due to the large number of stakeholders, data sharing, technology and network requirements, developing SDI is a very cost-effective technology. In every society, but especially in developing countries like Iran, there are also a significant number of threats affecting the development of SDI. SDI-readiness assessment leads to the identification of challenges and issues, and therefore helps to minimize their impacts on successfully developing SDI. Thus, we conclude that the results are of great importance for analyzing the factors which may have significant impact on successful SDI development in Agriculture Jahad organization of West Azerbaijan province.

    Keywords: Spatial Information Infrastructure (SDI), Readiness assessment, Agricultural Jihad, West Azerbaijan
  • Z. Izakian*, M. S. Mesgari Pages 23-37

    In recent years, the advancement of information gathering technologies such as GPS and GSM networks have led to huge complex datasets such as time series and trajectories. As a result it is essential to use appropriate methods to analyze the produced large raw datasets. Extracting useful information from large data sets has always been one of the most important challenges in different sciences, and data mining techniques provide useful solutions to solve this problem. Nowadays, clustering technique as the most widely used function of data mining, has attracted the attention of many researchers in various sciences. Due to different applications, the problem of clustering time series data has become highly popular and many approaches have been presented in this field. An efficient clustering method groups data in such a way that the objects in the same cluster are more similar to each other than to objects in different clusters. In order to compute the difference/similarity between time series data in clustering process, a similarity measure or distance function is used. Therefore, choosing an appropriate distance function is one of the most important challenges that should be considered before starting the clustering process. So far, various distance functions have been proposed to measure the difference/similarity between time series and each of them have its own strengths and weaknesses. Since choosing a suitable distance function to cluster a specific data set is a complicated process, in this study, we proposed a clustering method based on combination of the well-known Fuzzy C-Means (FCM) method and the Particle Swarm Optimization with the ability of using different distance functions in time series clustering process. In this way, the step of choosing the best distance function before starting time series clustering procedure has been deleted and different similarity measures can participate in the clustering process with different impacts. The objective function in this study is defined based on Fuzzy C-Means clustering objective function and the particle Swarm Optimization algorithm is used to find the optimal value for the considered objective function. Finally, by considering three distance functions including Euclidean distance, dynamic time warping and Pearson correlation coefficients the proposed method was implemented on seven well-known UCR time series datasets. Also, by considering the average normalized mutual information as a criterion for evaluating the performance of methods in this research, the proposed method was compared with five other methods. The results of this comparison indicated that the method presented in this study performed better in more than 85% of cases rather than other methods. In order to have a better evaluation, Tukey’s multiple comparison tests with a threshold of p < 0.05 is used with the ability of comparing the methods in pairs. The results obtained by Tukey test showed that, in about 83% of cases, the difference between achieved results by the proposed method in this study and results obtained by the other five techniques are statistically significant. Overall, the results of this study clearly showed the superiority of the proposed clustering method in the production of high quality clusters in comparison to some other methods.

    Keywords: Clustering, Time Series, Particle Swarm Optimization, Fuzzy C-Means
  • M. Kaveh, M. Yazdi, M. Dehghani*, M. Sharzei Pages 39-56

    One of the major challenges of Interferometric Synthetic Aperture Radar (InSAR) technique is the existence of tropospheric effect on the results. The tropospheric effect is due to the changes of atmospheric parameters including temperature, pressure, and humidity between the master and slave images. In this research, two different methods based on spatial-temporal filters and calculation of phase delay using MERIS data were evaluated. The main objective is to monitor the interseismic deformation across the Tasouj fault located in West and East Azarbaijan provinces. To this end, Stanford Method for Persistent Scatterer (StaMPS) is applied on 12 ascending ENVISAT ASAR images spanning between 2004 and 2008. The deformation time series obtained from StaMPS are two rough due to the atmospheric effect. In the first method employed for the atmospheric effect reduction,  considering that the atmospheric effect is a temporally-decorrelated and spatially-correlated signal, two different high pass and low pass filters are applied in the temporal and spatial space in order to extract the atmospheric signal which is then subtracted from the time series analysis results. In the second method, the phase delay due to the troposphere is estimated using the MERIS water vapor product. GPS measurements are finally used in order to evaluate the performance of different atmospheric reduction methods. Two quantitative criteria, i.e. Root Mean Square Error (RMSE) calculated from GPS and corrected time series and standard deviation of atmospherically-corrected time series are considered as two relevant methods for evaluating the fluctuations reduction. The method based on spatial-temporal filters shows more superiority over the other one with RMSE and standard deviation of 13 mm and 40 mm, respectively, at its best case.

    Keywords: Persistent Scatterer, Tropospheric Corrections, GPS, MERIS, Interseismic
  • B. Sadeghi, F. Samadzadegan, F. Dadrasjavan* Pages 57-78

    Three-dimensional classification of urban features is one of the important tools for urban management and the basis of many analyzes in photogrammetry and remote sensing. Therefore, it is applied in many applications such as planning, urban management and disaster management. In this study, dense point clouds extracted from dense image matching is applied for classification in urban areas. Applied images are acquired using a Micasense RedEdge multispectral camera to increase the classification accuracy. The band to band registration is one of the existing challenges of multi-spectral camera, which the SIFT algorithm is used to extract the corresponding features of each band. One band selected as reference and other bands are transferred to the reference band by projective transformation. Finally, the bands are combined to create a color image from each three bands. So, two point clouds are generated using dense image matching techniques from two sets of images. To produce a multi-spectral point cloud, the two set of point clouds have been integrated using nearest neighbor interpolation. The multi-spectral point clouds are classified by using random forest algorithm, structural and multi-spectral features. This process composed of three parts as structural information, multi-spectral information, and integration of both. Finally, the results are shown a 25% improvement in the accuracy of the integration of multi-spectral and structural information compared to multi-spectral information and 32% improvement in the accuracy of the integration of multi-spectral and structural information compared to structural information. Classification using visible information (RGB) instead of multispectral information resulted in an accuracy drop by 5%.

    Keywords: 3D Classification, Dense Image Matching, Multispectral Image, Band to Band Registration, Point Cloud, Random Forest
  • M. Ahangarha, M. Saadat Seresht, R. Shahhoseini*, S. T. Seyyedi Pages 79-89

    Change detection is done with the purpose of analyzing two or more images of a region that has been obtained at different times which is Generally one of the most important applications of satellite imagery is urban development, environmental inspection, agricultural monitoring, hazard assessment, and natural disaster. The purpose of using deep learning algorithms, in particular, convolutional neural networks and hyperspectral imagery, here is to identify the planting area because these networks have an excellent performance in achieving change detection. In this research, we investigate to use of deep learning methods in comparison with another tradition methods for obtaining changes in an agricultural area so that, after generating difference images with the use of Otsu algorithm we generate a preliminary binary map. Then we extracted the feature by using sparse auto encoder networks and classified pixels in two categories to change and no change by using the convolutional neural networks too. In the end, we obtain a final change map by making a model and evaluation of accuracy. That we have achieved even better results, which indicates the need to use deep learning methods. Since solving, the problem manually related to change detection. To investigate capable of the proposed method, 2 datasets hyperspectral imagery from the American Hermiston agricultural fields in the United States was used and vegetation cover near the Shadegan wetland located in the south of Khuzestan province, evaluated by the Hyperion sensor. The proposed method compared to other methods has an overall accuracy of 95% and the kappa coefficient of 0.86.

    Keywords: Change Detection, Deep Learning, Hyperspectral Images, Sparse Auto Encoder, Agriculture Monitoring
  • H. Shariyari, H. Emami* Pages 91-109

    Forest fire models are generally used in different aspects of fire management and are helpful in understanding and prediction of fire behavior. Forest fires cause a significant damage for public property by destroying a large tract of forest.  This helps fire fighters to focus on an area with greater risk and to develop better substructure for fire fighter training and ultimately to plan fire-fighting policies to minimize damage and stay safe. In the same way simulation modeling also provides an adequate tool to estimate risk when actual risk data are limited or unavailable. Ultimately there is a need to model forest fire in ground, crown, and surface fuel. Forest fire risk assessment, which based on an integrated index, becomes an important tool for forest fires management. The integrated index includes the information about fuel, topography and weather condition which constitute potential fire environment together. The fuel and weather condition are essential for forest fire occurrence, so the main potential fire environment parameters in the process of the forest fire risk assessment are temperature, fuel moisture content and vegetation status. The environment parameters data for traditional forest fire risk assessment were always obtained from the weather station. In present study forest fire risk was estimated as the proportion of simulation runs that burned a particular point and was accumulated over the entire study area. Study used satellite remote sensing datasets in conjunction with topographic, vegetation and climate datasets to infer the causative factors of fires. Spatial data on all these parameters have been aggregated and organized in a GIS (Geographic Information System) framework.In this research, the relation between the most effective environmental elements (vegetation index (VI), Land surface temperature (LST), slope, aspect, wind speed and direction) and human factors (vicinity of roads and residential areas) has been investigated as a mathematical model with the occurrence and release of fire in the forest protected area of Arasbaran. In order to validate the results, the data from previous fire burns has been used.To this end, LDCM satellite imagery, digital elevation model, wind speed and direction, and other parameters were used in synthesis remote sensing and geographic information systems. At first, a combination of environmental factors, fire hazard maps and map of areas with a 50% fire risk was produced. Then to simulate its extension, Alexandriachr('39')s semi-experimental models and cellular automation algorithms were used and the genetic algorithm is used to optimize the model parameters. The obtained results of normalized correlation coefficients of environmental parameters showed that VI, LST, slope and aspect were 29.20%, 29.11%, 21.93% and 19.75%, have the greatest correlation with the risk of fire map, respectively. In addition, about 17% of the study area have a high fire risk potential and more than 50% of the area is in a high fire hazard. In addition to environmental elements, the study of the relation between human factors and fire risk showed that the proximity to the road had the highest share in the incidence of fire. Also, the simulation results of synthesis of the Alexandros semi-experimental and cellular automation models showed that expansion of fire in the first region of the test have an overall accuracy 95.56% and kappa 91.41% and an overall accuracy 62.69% and Kappa of 13.13% compared to the reference data in the second region of the test. These results were in good agreement with the results of the simulation studies in firefighting development. Therefore, the simulation process can be used to protect the forest effectively. Results from the current study were quite significant in identifying potential active-spots of fire risk, where forest fire protection measures can be taken in advance.

    Keywords: Forest Fire, Simulation of Fire Spread, Arasbaran Region, Remote Sensing
  • M. Ghadimi*, A. Derakhshan Pages 111-117

    Dams are one of the most important fundamental structures all around the world. Given the high volume of water in the dams, they are susceptible to damage and destruction, leading to large financial losses and fatality. Therefore, by installation of instrumentation data in the dam’s body and execution of terrestrial surveying network, stability and safety of dams can be monitored. However, occasionally abnormal processes take place in the dam’s body and foundation that do not match with the instrumentation data’s outcomes. In the recent years, with the evolution and progress of radar imaging techniques and the image processing approaches, large deformations in the dams’ and bridges’ body can be monitored precisely. In the current study, the abnormal deformation and displacement taken place within the time period of Sentinel-1A 2014-2018 on the downstream part of Taleqan dam’s body were evaluated 4 mm/y and were compared with instrumentation data. The results imply that the occurred displacement is related to the external and protective layer of the dam’s body (Riprap) and has no correlation with the dam’s body behaviour.

    Keywords: InSAR, Behaviour of Taleqan Dam, Sentinel1-A
  • O. R. Abbasi*, A. A. Alesheikh Pages 119-129

    In recent years, the shared content on the web has had significant growth. A great part of these information are publicly available in the form of semi-strunctured data. Moreover, a significant amount of these information are related to place. Such types of information refer to a location on the earth, however, they do not contain any explicit coordinates. In this research, we tried to georeference the semi-structured resources on the web using machine learning. To this end, we leveraged the advertisements related to real state domain in the city of Tehran, Iran, published in Divar website. In order to extract the advertisesments from the website, a crawling approach was chosen. In addition, to assign coordinates to advertisements, we used Random Forests algorithm. The results show that using this approach, the advertisements can be georeferenced at the precision of neighborhoods. The resulting presicion from this approach is about 2 km and 6 km in latitude and longitude directions, respectively. Moreover, the results demonstrate that price of the property has higher importance relative to other variables considered in this study. It can be concluded that the price of properties in Tehran shows stronger spatial pattern in North-South direction than East-West direction.

    Keywords: Georeferencing, Place-Based Data, Random Forests, Web Resources
  • S. Heydarivaraste, S. R. Emadi*, Y. Jamour Pages 131-139

    Determination of water vapor in the atmosphere plays an important role in forecasting weather conditions and precipitation studies. For this reason, it is very important to study the tropospheric delay, especially the wet component, which is due to the presence of water vapor in the atmosphere. In this paper, the amount of water vapor was estimated by altimeter satellite radiometer and GPS data, which were based on GPS results and compared with satellite altimeter results. For this purpose, observations of 16 and 133 transmissions of Jason-3 satellites with a period of 10 days in 2018 were used. After processing the altimeter satellite observations using BRAT 3.3 software, the average amount of precipitation water vapor in this method for Tonekabon, Urmia and Bandar Abbas cities was 45, 44 and 30 mm, respectively. In the GPS method, using the Precise point positioning algorithm (PPP), the total tropospheric delay in the vertical direction was obtained (ZTD) and then the hydrostatic delay (ZHD) was subtracted from the total delay and finally by applying the relevant conversion factor to Non-hydrostatic delay (ZWD), the amount of precipitating water vapor was estimated.With processing GPS observations of three permanent stations of Tonekabon, Urmia and Bandar Abbas in 2018 corresponding to the observations of 16 and 133 transmissions of Jason-3 satellite with a time interval of 10 days and using From Bernese 5.2 software, the average amount of precipitable water vapor was estimated to be 47, 45 and 31 mm, respectively. Finally, the amount of RMS and standard deviation from the two methods were estimated to be 1 to 1.5 mm and 5 to 5.5 mm, respectively. The closeness of the results obtained from the two methods shows a very high agreement and compatibility between these two methods with a correlation coefficient of about 0.98 and the ability to combine them for climate and weather studies.

    Keywords: Precipitable Water Vapor, Troposphere, GPS, Satellite Altimetry, Jason Satellite
  • V. Hashemi*, M. S. Mesgari, P. Mohammadi Kazaj Pages 141-163

    An increase in the number of vehicles in cities leads to several problems, including air pollution, noise pollution, and congestion. To overcome these problems, we need to use new urban management methods, such as using intelligent transportation systems like ride-sharing systems. The purpose of this study is to create and implement an improved genetic algorithms model for ride-sharing with non-homogeneous vehicles (like taxis and vans with a capacity of 4 and 10 passengers). The proposed genetic algorithm can group passengers according to their trip similarity based on Spatio-temporal parameters to reduce the number of empty seats in vehicles, followed by the number of vehicles through the city, and get the optimal traveling path for each group of passengers. Optimal traveling path planning should also be considered to minimize each groupchr('39')s travel distance and, as a result, the time delays during the trip for each passenger and driver. Therefore, in this algorithm, four objective functions are considered. The objectives include minimizing the total travel distance of trips, the entire time delay (deviation from ideal times) at the origin and destination of passengers, number of vehicles, and number of empty seats. Due to the previous studies and the lack of combination of these objective functions mentioned above, in this article, complete research was conducted to create a model by combining these objective functions. Combining these objective functions complicates the model and, consequently, presents challenges in its implementation. To overcome these problems, Two innovative mutation operators and two local search algorithms under the titles of genetic algorithm and innovative algorithm based on passengerschr('39') travel time priority proposed to improve the genetic algorithmchr('39')s exploitation ability and to reach the global optimum answer. The first innovative mutation operator is called join-vehicles. This innovative operator aimed to reduce the number of used vehicles by using vehicleschr('39') maximum capacity to serve passengers. As discussed in this paper, conventional mutation operators such as insert or scramble operators do not have adequate ability to solve this problem. In this innovative method, the indices of two genes related to two random vehicleschr('39') positions in the entered chromosome are chosen randomly. The goal is to remove the second vehicle and combine its passengers with the first vehicle to travel beside its passengers. Also, the arrangement of boarding and disembarking this set of passengers is planned in a way that the carchr('39')s capacity condition is always satisfied; therefore, there will no longer be a restriction on passengerschr('39') combination in a van with a taxi vice versa. The second innovative mutation operator was proposed to change the van into a taxi. During the training, we would observe that some vans were used to serve the passengers while less than half of their capacity was occupied. At first, this operator replaces the van vehicles on the input chromosome with random taxis not used on the chromosome and recalculates this chromosomechr('39')s cost with the new state. If this new state reduces the chromosomechr('39')s cost, the taxi will be replaced with that van in the chromosome. Another issue that arises after applying the mentioned mutation operators on the chromosome is how to take turns for passengers to board and disembark in altered parts of the chromosome to respond to requests optimally. Therefore, two local search algorithms based on the innovative passengerschr('39') time priority to board and disembark and the traditional genetic algorithm have been implemented to increase the solution quality. These two algorithms are applied to the altered part(s) of the input chromosome and replace the resulting output with this/these part(s). About the innovative local search algorithm based on the time priority of boarding and disembarking passengers, a passenger whose expected time to board is earlier than the other passengers of a group gets on the vehicle first. This passengerchr('39')s expected time to get off at his destination is compared with the other passengerschr('39') expected time to board if he/she has higher priority than the others. Then the vehicle reaches him/her to his/her destination first. Then the vehicle goes to the origin of the next passenger, who has more priority to get in the vehicle. According to passengerschr('39') expected time priority, this procedure is repeated to board and disembark them properly. In this model, 18 travel requests, including 26 passengers (some travel requests included more than one passenger), were considered, which want to be transferred in a hypothetical road network that contains 46 nodes and 75 edges. Finally, the implemented model was tested and evaluated during six different scenarios. The results indicate the efficiency of the implemented model of this paper. It should be noted that according to the chromosome encoding method used in this paper, which is similar to some previous studies, the model of this paper can be used, tested, and evaluated in other areas related to the vehicle routing problem.

    Keywords: Ride-Sharing, Improved Genetic Algorithm, Metaheuristic Mutation Operator, Local Search Algorithm
  • M. Nadri, M. Akhoondzadeh Hanzaei* Pages 165-174

    Earthquake is one of the most devastating natural hazards which efforts to predict the time, location and magnitude of it have not been yet completely successful. Remote Sensing data is proved to be an effective source of information about lithospheric and atmospheric activities around the impending earthquakes which are referred to as earthquake precursors. The issue of detecting anomalies in these precursors has been interesting to many researchers. One of the precursors that has been taken into consideration by the researchers, is the chlorophyll-a (chl-a) concentration on the sea surface. Since, over %70 of the Earthchr('39')s surface is covered by water and many seismic active faults are located in coastal belts of the continents, the behavior of oceanic earthquake-related parameters such as Sea Surface Temperature (SST), surface latent heat flux, upwelling index and chl-a, is of particular importance. Elastic strain in rocks, formation of micro-cracks, gas release and other chemical or physical activities in the Earthchr('39')s crust before and during earthquakes has been reported to cause changes in oceanic parameters. Chl-a parameter is obtained through various methods including laboratory methods of spectroscopy, chlorophyll fluorescence measurement or through satellite data using Color Index (CI) and Raily band ratio (OCX) algorithms etc. Changes from time to time in plankton population in ocean surface and chl-which is the indicator of the primary productivity of phytoplankton biomass in the ocean, can be continuously monitored from space by Ocean Color sensors. In this study, MODIS on Aqua and Terra products were used to examine the pattern of variations of chl-a. By examining the chlorophyll time series of five large earthquakes produced by MODIS sensor products on Aqua and Terra platforms and using a random forest algorithm, it was observed that the release of thermal energy and ground gases due to the activity of Tectonic plates or other physical and chemical activities of the earthchr('39')s crust before, during and after coastal and near-coastal earthquakes can lead to changes in the amount of chlorophyll in the water surface and this parameter can be used and investigated as an earthquake precursor in future research. The results showed that chlorophyll-a levels exceeded the permissible limits 51, 48, 46 and 28 days before the Gujarat earthquake by 85, 45, 15 and 35%, respectively. In the 2004 Sumatra earthquake in the 20 days before and 18 days after the earthquake, the percentage of chlorophyll-a parameter crossing the upper limit was 110 and 190, respectively. In the 2006 Java earthquake, 42 days before, 15 and 16 days after the earthquake, the amount of chlorophyll-a suddenly changed to 136.84, 52.63 and 107.89% of the allowable threshold. In two other studies, this amount is equal to 199.87, 25, 150 and 190% more than allowable limit, respectively, on the 44th and 34th days before, on the day of the earthquake and 13 days after the Chile earthquake, and 321.42, 50 and 160.71% more than allowable limit 7 and 4 days before and 17 days after the earthquake in Mexico.  In addition, the clear superiority of the Random Forest (RF) algorithm in correct detection of anomalies showed that RF algorithm can be introduced as an effective tool in anomaly detection in time series.

    Keywords: Earthquakes, Chlorophyll-a, Random Forests, MODIS, Anomaly
  • E. Nekouzade Chaharmahali*, J. Asgari Pages 175-188

    The effect of troposphere on the signals emitted from global navigation satellite system (GNSS) satellites, appears as an extra delay in the measurement of the signal traveling from the satellite to receiver. This delay depends on the temperature, pressure, humidity as well as the transmitter and receiver antennas location. In GNSS positioning, tropospheric delay effects on accuracy of different components of obtained coordinates. In RTK networks the amount of this parameter is determined by solving double difference observation equations between reference stations and then is interpolated for rover receiver. Tropospheric delay consists of a wet part and a dry part. The dry part that forms about 90 percent of total delay, is related to station height. So in the cases that the height of rover station is significantly different from the average height of reference stations, reduction in accuracy of interpolation is expectable. To investigating this issue, in this article we compared interpolation accuracy of double difference tropospheric delay in two networks with different structure. In both of networks, we have a central receiver that is surrounded with four other receivers. We considered the central receiver as rover station and the others as reference stations. The main difference between these networks is about stations height. In the first network that is named Sima, the difference between the height of rover station and average height of reference stations is 122 meters. The amount of this parameter is 1095 meters for the second network that is named Ebry. To comparing the accuracy of tropospheric delay interpolation in these networks, we determined zenith tropospheric delays (ZTD) for all stations by processing GNSS observations using CSRS-PPP (Canadian Spatial Reference System – Precise Point Positioning) online service. Then we selected the nearest reference station to rover as master reference station. In the following we identified the satellites that were visible in 100 epochs for all stations. Between these satellites, one of them with the most elevation angle was selected as reference satellite. ZTD’s were converted to slant tropospheric delay in satellite-receiver direction using global mapping function. Then double differenced tropospheric delays between the reference satellite and the others and between the master reference station and other reference stations, were determined. Finally this parameter was computed for the position of rover station using interpolation with a two parameter linear equation. After computing RMSE (Root Mean Square Error) of interpolated values, we found that the accuracy of interpolation decreased significantly in the second network. Therefore we can conclude that the difference between the height of rover station and the height of reference stations, has a direct effect on accuracy of tropospheric delay interpolation in RTK networks. So in the following of the article, we introduced a new method to eliminate height variations effects on interpolation accuracy of tropospheric delay. After using this method RMSE of interpolation decreases from 32 mm to 9 mm in the first network and in the second network decreases from 228 mm to 14 mm. in other words we have 69.2 and 93.7 percent of accuracy improvement in these networks. Due to these results, we expect a positive effect on positioning accuracy by applying this method in RTK networks.

    Keywords: Interpolation, Tropospheric Delay, Double Difference Positioning, Network Real Time Kinematic, Precise Point Positioning
  • A. Heydari, Y. Amerian*, H. Mahbuby Pages 189-198

    Ionosphere layer variations are divided into regular and irregular. Regular changes can be considered as daily changes, changes depending on latitude and changes due to solar activity. Travelling Ionospheric Disturbances (TID) is one of the irregular changes of ionosphere which categorized in small, medium and large scales. Medium-scale Travelling Ionospheric Disturbance (MSTID) which are propagated because of Atmospheric Gravity Waves (AGW) is the main obstacle for accurate interpolation of ionospheric correction in a Global Positioning System (GPS) network, so detection and simulation of these perturbations is necessary. The purpose of this paper is discovering MSTID using carrier phase, which in addition to the values of the total electron content recovered from the observations of GPS also confirm the values detected using the carrier phase observations. MSTIDs are waveforms that have parameters such as amplitude, velocity, direction and wavelength that extracting these parameters are goal of simulation of MSTID. Generally, MSTIDs are planar and longitudinal waves, so to calculate their parameters, first a profile of or dSTEC by constant latitude is considered, then by examining displacement of maximum values of these parameters in a period of time, velocity will be determined. To calculate wavelength, wavelet analysis was used. Results of  and TEC observations were almost identical. MSTIDs have movement in southwest-northeast direction by velocity of 100 meters per second and wavelength of 232 kilometers and amplitude of 0.02 TECU. It means that these perturbations cause an error of 4 millimeters in L1 measurement. Since, phase observation’s precision is 1 millimeter, this error value is significant.  However, the carrier phase observations can be measured with an accuracy of one hundredth of a cycle, which by multiplying this value by the wavelengths of the GPS signal will be about 2 mm. Therefore, error that occurs due to MSTID, it is significant and should be considered.

    Keywords: MSTID, GPS, TEC, Carrier Phase
  • M. Heidari Mozaffar*, M. Varshosaz, M. Saadatseresht Pages 199-207

    Terrestrial Laser Scanner (TLS) technology, have altered quickly data acquisition for map production in surveying. In many cases, it is impossible to complete surveying of the desired area without TLS displacement in one station to another. Occlusion is innate in data acquisition, with this type of device. To solve this problem, TLS devices should be placed in different locations and scanning operation to be performed. Increase the number of scan stations cause data redundancy and on the other hand will be increases the computational and monetary cost of project. Aim of this paper is presents a novel method for selecting a better place and localization of TLS. Thus, the mechanism of data acquisition was considered by TLS. Also parameters affecting the choice of a place and a station were investigated. Point cloud data investigations show that these parameters have a major impact in reducing the time needed to completeness of data collection. Occlusion as one of the most important parameters has been discussed in this paper. Using data from one station with combination of image processing method, the area of hidden parts to be estimated. Due to the size and area of the various occlusion set, determines to be appropriate locations for new data collection station. After evaluating candidate points according to given criteria, conditional on the project, the next point will be selected for acquisition. By continuous using this method, reduce a ground operation volume in this type of projects. Reducing time of land surveying in many field projects is very important. While ensuring the quality of data and decreased project costs is essential.

    Keywords: Terrestrial Laser Scanner, Occlusion, Localization, Canny Algorithm