فهرست مطالب

نشریه علوم و فنون نقشه برداری
سال دهم شماره 1 (پیاپی 37، تابستان 1399)

  • تاریخ انتشار: 1399/08/12
  • تعداد عناوین: 15
|
  • هادی جمشیدمقدم، مجید محمدی اسکویی* صفحات 1-26

    امروزه، استفاده از سنجش از دور فراطیفی بعنوان ابزاری توانمند برای کشف، شناسایی و تهیه نقشه های متنوع از عوارض سطح زمین است. این فن آوری کاربردهای گوناگونی در نقشه برداری، معدن، پایش محیط زیست، کشاورزی، تصاویر شهری و سنجش از دور سیاره ها دارد. در این بین، فرآیند جداسازی تصاویر فراطیفی بعنوان یکی از مهمترین مراحل پردازشی در آنالیز این داده ها محسوب می گردد. که براساس دو مدل اختلاط خطی و غیرخطی پایه ریزی می گردد. در سالیان اخیر، دامنه گسترده ای از انواع  این روش های جداسازی بر پایه مدل اختلاط خطی بنا نهاده شده، که براساس آن بخش اصلی فرآیند یعنی تشخیص اعضای انتهایی و مقادیر فراوانی مربوط به آنها تعیین می گردد. با این حال بر کسی پوشیده نیست که در برخی مواقع وجود اثرات اختلاط غیرخطی می تواند جزء مهمی در بسیاری موقعیت های دنیای واقعی همچون: اختلاط کانیایی مواد، پوشش های گیاهی، محیط های شهری و... محسوب گردد و نادیده گرفتن این اثرات اجتناب ناپذیر است. در نتیجه هدف از این مقاله، مروری بر روش ها و مدل های غیرخطی در فرآیند جداسازی و بررسی جزیی تر تکنیک های محبوب تر می باشد. در همین راستا، انواع روش های جداسازی را می توان به دو گروه روش های مبتنی بر فیزیک و روش های براساس ابرداده ها تقسیم نمود که در آنها از مهمترین تکنیک ها و مدل ها می توان به انواع مدل های دوخطی، چندخطی، مدل های بر پایه اختلاط ذاتی یا داخلی، روش های بر پایه مسیریابی پرتو، روش های کرنلی، شبکه های عصبی و روش های یادگیری منیفولد و توپولوژی اشاره کرد. در این بین، با یک بررسی جامع بر انواع این روش ها می توان پی برد که مدل های دوخطی و شبکه های عصبی در طی این سال ها از اهمیت و محبوبیت بیشتری در بین پژوهشگران این حوزه برخوردار بوده اند.

    کلیدواژگان: دورسنجی، جداسازی غیرخطی، دوخطی، چندخطی، شبکه عصبی، کرنل، توپولوژی
  • سحر خرمک، فاطمه طبیب محمودی* صفحات 27-37

    استفاده از داده های سنجش از دور به منظور کسب آگاهی و دانش در رابطه با پوشش گیاهی نواحی شهری و سلامت آن ها، به دلیل اهمیت زیاد گیاهان همواره مورد توجه مدیران بوده است. در این تحقیق، از ادغام دو داده فراطیفی و لیدار به منظور تشخیص و طبقه بندی انواع گونه های گیاهی در مناطق شهری استفاده شده است. اطلاعات طیفی حاصل از داده های فراطیفی به منظور طبقه بندی عوارض پوشش گیاهی استفاده می شود، اما به علت شباهت طیفی گونه های مختلف گیاهی با یکدیگر و با سایر عوارض شهری امکان بروز اشتباهاتی وجود دارد که استفاده از اطلاعات ارتفاعی حاصل از داده لیدار به منظور رفع آن، می تواند بسیار کارآمد باشد. روش پیشنهادی ادغام داده ها مبتنی بر بکارگیری قابلیت سیستم های چندعاملی در حیطه هوش مصنوعی توزیع یافته به عنوان راهکاری برای ادغام    داده های فراطیفی و لیدار در سطح تصمیمات و بهبود نتایج طبقه بندی و تشخیص انواع عوارض پوشش گیاهی شهری است. هر یک از عامل های مکان-مبنای تعریف شده در این سیستم براساس اطلاعات طیفی مستخرج از داده فراطیفی و اطلاعات ارتفاعی حاصل از داده لیدار وظیفه شناسایی و استخراج یک نوع عارضه پوشش گیاهی خاص را برعهده دارند. در نهایت، عامل هماهنگ کننده ضمن شناسایی نواحی کاندیدای مورد تناقض، با همکاری عامل های مکان-مبنای تشخیصی سعی در برطرف نمودن مشکلات مربوط به شباهت طیفی و ارتفاعی عوارض شهری در نتایج طبقه بندی می نماید. نتایج بدست آمده حاصل از اعمال این سیستم چندعاملی ادغام در سطح تصمیمات بر روی داده های فراطیفی و لیدار برداشت شده از منطقه دانشگاه هیوستون و نواحی اطراف، نشان دهنده توانایی بالای این روش در تشخیص عوارض پوشش گیاهی است. ارزیابی این نتایج نشان داد که دقت کلی در نتایج حاصل از سیستم چندعاملی برای حالتی که از داده فراطیفی به تنهایی استفاده شده است، حدود 71%  است و در حالتی که از ادغام داده فراطیفی و لیدار استفاده شود، حدود 87% است.

    کلیدواژگان: تشخیص پوشش گیاهی، سیستم چندعاملی، داده لیدار، داده فراطیفی، ویژگی های طیفی و ارتفاعی
  • سمیرا الله یاری بک*، علیرضا صفدری نژاد، روح الله کریمی صفحات 39-53

    طبقه بندی یکی از مهم ترین روش های استخراج اطلاعات از تصاویر ابرطیفی است. در این مقاله، راهکاری نوین با هدف تولید ویژگی بمنظور طبقه بندی این تصاویر پیشنهاد شده است. این راهکار تلفیقی از تبدیلات خطی، غیرخطی و نمایش تنک بمنظور تولید ویژگی های موثر در فرایند طبقه بندی تصاویر ابرطیفی است. در روند پیشنهادی، ابتدا با رویکردی جدید و نظارت شده از تبدیل غیرخطی تحلیل مولفه های اصلی (NLPCA) بمنظور انتقال داده های طیفی به فضایی با ابعاد بیشتر استفاده شده است. در مرحله دوم، بکمک تبدیل تحلیل تفکیک پذیری خطی(LDA) فرامکعب حاصل از مرحله قبل به فضایی با بعد کمتر انتقال می یابد. در ادامه با هدف هم مقیاس کردن ویژگی های تولیدی و بهره گیری از پتانسیل تمامی داده های آموزشی، داده ها از طریق روش های تخمین تنک سیگنال به فضای ویژگی جدیدی با بعدی متناظر با تعداد کلاس های طبقه بندی منتقل می شوند. در این تحقیق از طبقه بندی کننده ی k نزدیکترین همسایه ی وزندار برای طبقه بندی فضای ویژگی استفاده شده است. این راهکار در دو داده ی ابرطیفی پیاده سازی شده و به طور متوسط بهبود دقت 6 درصدی را نسبت به باندهای طیفی و سایر زیر مجموعه های تلفیق ویژگی از روش پیشنهادی نشان داده است. کسب دقت کلی تا 99 درصد و همچنین تفکیک پذیری بیشتر کلاس های با داد ه های آموزشی اندک از ویژگی های این روش محسوب می شود.

    کلیدواژگان: تصویر ابرطیفی، طبقه بندی، نمایش تنک، استخراج ویژگی
  • رضا محمدی آسیابی، محمودرضا صاحبی* صفحات 55-64

    پوشش زمین و تغییرات آن از چنان اهمیتی در زندگی ما برخوردار است که سالانه هزینه سنگینی صرف بررسی و مدیریت آن می شود. از این رو، انواع روش های موثر در این زمینه همواره موردتوجه محققین بوده است. روش های مبتنی بر سنجش ازدور با توجه به قابلیت های بیشمار آن ها، با اقبال خوبی در سال های اخیر مواجه شده اند. در این میان الگوریتم های طبقه بندی به عنوان یکی از اساسی ترین ابزارها در آنالیز تصاویر سنجش ازدوری به شمار می آیند. تصاویر رادار با روزنه مجازی[1] نیز با توجه به داده های غنی و قابلیت اخذ داده در روز و شب و در شرایط مختلف آب و هوایی، پتانسیل بالایی در مطالعه و بررسی پوشش زمینی دارند. پیشرفت های اخیر سنجنده های رادار با روزنه مجازی در اخذ داده با قدرت تفکیک مکانی بسیار بالا و به صورت تمام پلاریمتری، علاوه بر ایجاد امکان مطالعه دقیق پوشش زمینی، استفاده از الگوریتم های قدرتمند جهت پردازش آن ها را اجتناب ناپذیر و لازم کرده است. در این مقاله از مدل BOVW[2] با رویکردی جدید، به منظور طبقه بندی تصویر تمام پلاریمتری رادار با روزنه مجازی استفاده شده است و نتایج حاصل ازنظر کمی و کیفی با نتیجه حاصل از طبقه بندی تصویر مورد نظر با استفاده از الگوریتم های ماشین بردار پشتیبان[3]، شبکه عصبی مصنوعی[4] و ویشارت[5]، مقایسه شده است. تصویر مورد مطالعه تصویر اخذ شده توسط سنجنده رادارست2 از منطقه سانفرانسیسکو می باشد که در باند C و به صورت تمام پلاریمتری اخذ شده است. دقت کلی 90.1% به دست آمده از طبقه بندی تصویر مورد نظر، نشانگر پتانسیل بالای این مدل در طبقه بندی تصاویر رادار با روزنه مجازی می باشد. همچنین عدم تاثیر اسپکل در نتایج نهایی روش پیشنهاد شده، دیگر مزیت این روش به شمار می آید.



    کلیدواژگان: تصاویر رادار با روزنه مجازی، طبقه بندی، Bag of Visual Words، SVM
  • سید احسان صدوقی، محمد طالعی*، سمیه ابوالحسنی صفحات 65-82

    طرح ریزی توسعه ی پایدار کاربری اراضی شهر (به عنوان یک سیستم پیچیده)، بدون اتکاء به چارچوبی جهت شناسایی، پیشبینی، برنامه ریزی و ارزیابی روند توسعه ی شهر مبتنی بر تعریف تعاملات میان انواع کاربری، ساختار جمعیت (میزان رشد و چگونگی توزیع جمعیت) و همچنین در نظر گرفتن رفتار راهبردی عوامل اصلی دخیل در فرایند توسعه ی شهر، امکانپذیر نیست. این مقاله مدلی مبتنی بر تلفیق خودکاره ی سلولی، تحلیل چندمعیاره و تیوری بازی ها برای طرح ریزی کاربری اراضی و شبیه سازی چگونگی توسعه ی شهر با توجه به سناریوهای موردنظر برای تغییر ساختار جمعیت شهری را ارایه می دهد. در این مدل، از تلفیق خودکاره ی سلولی و تحلیل چندمعیاره به عنوان ابزاری برای مدل سازی تعاملات میان انواع کاربری و کمی سازی تاثیرات متقابل میان آنها، با توجه به آستانه ی فعالیت و آستانه ی تاثیرگذاری آنها، بهره گرفته شده است. همچنین در مدل پیشنهادی، تغییر کاربری معلول تصمیم گیری دو عامل توسعه دهنده (به عنوان سرمایه گذار) و شهرداری (به عنوان متولی مدیریت شهری) تعریف شده و از تیوری بازی ها برای مدل سازی و کمی سازی رفتار راهبردی این دو عامل بهره گرفته شده است. جهت آزمودن عملکرد مدل پیشنهادی، توسعه ی کاربری اراضی شهری شهرک روزیه ی سمنان، در غالب دو سناریوی مختلف و با در نظر گرفتن تاثیر کاربری های موجود در سراسر شهر سمنان با بهره گیری از مدل پیشنهادی، طرح ریزی شده است. نتایج پیاده سازی به ویژه در توزیع انواع کاربری ها (با توجه به ویژگی های منحصر به هر کاربری)، نمایانگر توانایی مناسب مدل برای شبیه سازی نتایج برنامه ریزی توسعه ی شهری، مبتنی بر ضوابط طرح جامع است.

    کلیدواژگان: شبیه سازی توسعه ی شهری، خودکاره ی سلولی، تحلیل چندمعیاره، مدلسازی عامل مبنا، تئوری بازی
  • رقیه زمانی*، مسعود مشهدی حسینعلی صفحات 83-95

    امروزه تهیه مدل های ارتفاعی رقومی و اطلاعات دقیق از ساختار ارتفاعی، به عنوان عنصری اصلی در ارزیابی پارامترهای منطقه موردمطالعه به شمار می آید. توصیف و شناسایی پراکنش گر های حجمی در مناطق شهری، همچون ساختمان ها و سایر عوارض، اهمیت ویژه ای در حوزه های مدیریتی، کاهش خسارات ناشی از سوانح طبیعی همچون زلزله، فرسایش عوارض و بررسی میزان تغییرات دارد. روش های تداخل سنجی که مبنای آن ها استفاده از سری تصاویر ماکروویو راداری است دارای دقت به مراتب بالاتری نسبت به تداخل سنجی کلاسیک، در بحث تهیه مدل های ارتفاعی رقومی و بررسی تغییرات هستند. قابلیت اصلی این روش ها، تخمین دقیق ماتریس کوواریانس بین داده های مشاهداتی است که امکان بهبود دقت نتایج تداخل سنجی را فراهم می آورد. از این رو در این مقاله به بررسی اثر تخمین بهینه ماتریس کوواریانس داده های راداری پرداخته شده است. برای این منظور ماتریس کوواریانس بر اساس انتخاب پیکسل های همسایه در روش های محلی همچون Boxcar و  انتخاب پیکسل های غیر همسایه در روش های غیر محلی همچون NLSAR تخمین زده شده است و نتایج حاصل از آن ها بر روی سری تصاویر راداری تهیه شده از استادیوم  Angondjéواقع در کشور گابن مورد آنالیز و مقایسه قرار گرفته است. میانگین ارتفاع برآورد شده استادیوم با به کارگیری نتایج روش Boxcar و NLSAR، به ترتیب 100/41 متر و 5400/42 تعیین شده که مقایسه آن با ارتفاع واقعی استادیوم که از نتایج ماموریت AfriSAR با مقدار 500/42  متر استخراج شده است، بیانگر دقت بالاتر نتایج روش NLSAR می باشد. به منظور بهبود مدل ارتفاعی تولیدشده با دقت یک متر و شناسایی کامل تر منطقه موردمطالعه، حل مسئله برهم افتادگی عوارض از طریق آنالیز مولفه های اصلی ماتریس کوواریانس برآورد شده انجام گرفته است. با حل یک مسئله کمینه سازی، ارتفاع با بیشینه احتمال برای مکانیزم های اصلی باز پراکنش تخمین زده شده و نتایج قابلیت جداسازی برهم افتادگی عوارض را تایید می کند که امکان آن در روش های کلاسیک تداخل سنجی وجود ندارد. 

    کلیدواژگان: تداخل سنجی سری تصاویر راداری، مدل ارتفاعی رقومی، برآورد ماتریس کوواریانس، آنالیز مولفه های اصلی، boxcar NLSAR
  • احمد طوسی، فرزانه دادرس جوان*، فرهاد صمدزادگان صفحات 97-110

    تصاویر پانکروماتیک و چند طیفی ماهواره های سنجش از دوری با یکدیگر ادغام شده تا تصویری چند طیفی با قدرت تفکیک مکانی بالا به دست آید. کیفیت طیفی تصاویر ادغام شده از اهمیت زیادی برخوردار بوده چرا که کیفیت تعداد زیادی از محصولات سنجش از دوری به طور عمده به آن بستگی دارد. با توجه به اهمیت کیفیت طیفی تصاویر ادغام شده ارزیابی آن نیز اهمیت خاصی دارد. این مقاله استراتژی شیء مبنایی برای ارزیابی کیفیت طیفی تصاویر ادغامی با هدف فایق آمدن بر محدودیت های روش رایج پیکسل مبنا و سایر روش های شیء مبنا ارایه می دهد. این نوع ارزیابی از طریق تمرکز بر روی اشیاء همگن دارای رفتارهای طیفی و بافتی مشابه و انجام عملیات میانگین گیری از مقادیر شاخص های ارزیابی کیفیت در محدوده قطعات و کلاس های تصویری معنادار تحقق می یابد. در فاز پیاده سازی ایده پس از تعیین یک شاخص طیفی بهینه (شاخص SAM)، طرح شیء مبنای پیشنهادی بر روی پنج مجموعه داده از چهار نوع سنجنده ماهواره ای مختلف اعمال و رفتار طیفی 29 روش ادغام در هفت کلاس تصویری مورد بررسی قرار گرفته است. نتایج بدست آمده حاکی از آن است که رفتار طیفی روش های ادغام در کلاس های مختلف از قاعده مشخصی تبعیت نمی کند. در نهایت از تحلیل های آماری برای تعیین بهترین روش های ادغام در هر کلاس استفاده شد و لیستی از الگوریتم های برتر در کلاس های تصویری مختلف در اختیار محققان حوزه سنجش از دور و ادغام تصاویر قرار گرفته است. اغلب روش های برتر جزء روش های مبتنی بر جایگزینی مولفه (CS) و با سرعت محاسباتی نسبتا بالایی بوده اند. نتایج تجزیه و تحلیل آماری 58 % با داده اعتبارسنجی انطباق داشته است. این رهیافت به جامعه علمی مرتبط با این نوشتار کمک خواهد نمود تا با نگاهی واقع گرایانه به انتخاب الگوریتم ادغام متناسب با تصاویر ماهواره ای مورد نظر خود مبادرت نمایند.

    کلیدواژگان: قدرت تفکیک بالا، ادغام تصاویر، ارزیابی طیفی، شیء مبنا
  • رضا عزیزی*، مهران ستاری، مهدی مومنی صفحات 111-132

    داده های فراطیفی در حوزه سنجش ازدور، با قدرت تفکیک طیفی بسیار مناسب (حدود 10 نانومتر) تهیه شده و شامل باند های زیادی  هستند. کشف ماده هدف، از مهمترین کاربردهای داده های فراطیفی است. یکی از مسایل کشف ماده هدف، تغییرپذیری طیفی مواد ناشی از تاثیر توپوگرافی و اختلاط طیفی است. علاوه بر این، نویز حاصل از نقص سنجنده و اثرات اتمسفری نیز باعث عدم ثبات طیفی یک ماده در موقعیت های مختلف می شود. روش های کشف هدف، این تغییرات را مدل سازی نموده و بر این اساس استخراج هدف را انجام می دهند. روش های آماری و روش های برمبنای زیرفضا، دو مورد از معروف ترین الگوریتم های کشف هدف می باشند. ضعف این روش ها، در نظر گرفتن فرضیات آماری خاص و مدل سازی تغییرات طیفی با پارامترهای محدود می باشد. از این رو در این مقاله یکی از روش های قدرتمند کشف هدف، به نام نمایش تنک استفاده شده است که شرایط مختلف رفتار طیفی هدف و زمینه را به صورت ماتریس هایی، تحت عنوان واژه نامه، مدل سازی نموده و درواقع زیرفضای کاملی از طیف مواد و تغییرات آن ایجاد می نماید. چالش اصلی روش های نمایش تنک، جهت کشف ماده هدف، ارایه واژه نامه خالص (بدون اختلاط طیفی) می باشد. در تحقیقات پیشین، سه روش جفت پنجره، عمومی و آموزش واژه نامه پیشنهاد شده است. ایراد اساسی این روش ها ایجاد اختلاط طیفی بین اتم های واژه نامه و طیف هدف می باشد. با توجه به نقاط ضعف روش های ذکر شده، در این پژوهش روشی جهت ساخت واژه نامه پیشنهاد شده است که اتم های واژه نامه، علاوه بر ایجاد زیرفضاهای کامل و مدل سازی تغییرات طیفی، در حد امکان خالص نیز می باشد. در روش پیشنهادی دو مقصود تشکیل زیرفضاهای زمینه و به حداقل رساندن اختلاط طیفی اتم های واژه نامه و هدف دنبال می شود. به منظور رسیدن به این دو مقصود، همبستگی طیف هدف و کل پیکسل های تصویر محاسبه شده و از میان پیکسل های تصویر، از کمترین تا بیشترین میزان همبستگی با طیف هدف، واژه نامه های متفاوتی برای زمینه ایجاد می شود. درنهایت از بین واژه نامه های ایجادشده، واژه نامه ای انتخاب می شود که زیرفضای کاملی از تصویر ایجاد نماید و آن زیرفضا نیز، کمترین میزان همبستگی با طیف هدف را داشته باشد. در این مقاله روش پیشنهادی ساخت واژه نامه به همراه یک مدل نمایش تنک، به نام SRBBH به کاررفته و تحت عنوان روش Proposed+SRBBH معرفی شده است. برای بررسی میزان کارآمدی روش های ارایه شده، یک مجموعه داده شبیه سازی و سه داده واقعی استفاده شد و به منظور ارزیابی روش ها، مساحت زیر سطح نمودار ROC مورد استفاده قرار گرفت. در آزمایش های اجرا شده بر دو داده Cuprite و Sandiego، مساحت زیر نمودار به ترتیب 9997/0 و 9961/0 به دست آمد که نسبت به سایر روش ها مقادیر بیشتری را نشان می دهد. برای دو مجموعه داده دیگر نیز برای اکثر هدف ها، روش پیشنهادی نسبت به سایر روش ها عملکرد بهتری را نشان می دهد.

    کلیدواژگان: کشف ماده هدف، داده های فراطیفی، تغییرپذیری طیفی، روش های نمایش تنک، واژه نامه
  • ندا کفاش چرندابی*، امیر غلامی صفحات 133-143

    تهیه نقشه پهنه بندی تصادفات جاده ای با هدف شناسایی مناطق پر خطر، گام بسیار موثری جهت کاهش تلفات جانی و مالی ناشی از آن می باشد. به دلیل ماهیت پویای بسیاری از عوامل موثر در شناسایی این مناطق، تهیه نقشه پهنه بندی به صورت سنتی، کارآمد به نظر نمی رسد. در حیطه مدلسازی فراگستر در بستر سیستم اطلاعات مکانی می توان در هر مکان، هر زمان، برای هر کاربر و تحت هر شرایطی نقشه ی مجزایی تولید نمود که تطابق بیشتری با شرایط فردی و محیطی متغیر وی داشته باشد. در این تحقیق در یک چارچوب ترکیبی از روش های داده کاوی برپایه 22 زمینه محیطی و فردی موثر در وقوع تصادف، احتمال خطر تصادف برای هر کاربر محاسبه شد. بدین ترتیب که با اخذ داده های تصادف ثبت شده در سال 1397 در محور تبریز مرند، پیش پردازش های مورد نیاز بر پایه آماره T2 و روش PCA انجام شد. سپس با GRNN و به کمک داده های جمع آوری شده، شبکه بهینه آموزش داده شد و بر پایه داده های آزمون مورد ارزیابی قرار گرفت. همچنین 8 سناریو مختلف برای محور مذکور طراحی شد و در 3008 نقطه از این محور میزان خطر تصادف برای هر سناریو پیش بینی شد. نتایج ارزیابی حاکی از دقت کل 99.37 درصد و صحت 90.74 درصدی برای مدل ارایه شده در این تحقیق می باشد. مطابق نتایج به دست آمده از سناریوهای مختلف، محدوده 5 کیلومتری گمرک و 3 کیلومتری شهرستان صوفیان دارای بیشینه خطر در این محور می باشد که ثبت 50 تصادف در این محدوده در بازه زمانی مذکور می تواند موید صحت آن می باشد.

    کلیدواژگان: سیستم اطلاعات مکانی فراگستر، تصادفات، پهنه بندی، GRNN، زمینه آگاهی
  • مهدیه فتحی*، مهدی مختارزاده، علیرضا صفدری نژاد صفحات 145-157

    یکی از عواقب بروز آتش، دود است. گاها رصد دود و آشکارسازی آن می تواند به عنوان راهکاری به منظور جلوگیری از وقوع و یا گسترش آتش محسوب شود. از سوی دیگر، بواسطه ی اثرات مخرب گسترش دود برای سلامت انسان، می توان با پهنه بندی و پایش روند گسترش آن، تدابیر لازم را به منظور ارتقای سطح خدمات بهداشتی در دستورکار قرار داد. در این مقاله، روشی خودکار به منظور آشکارسازی دود رقیق ناشی از آتش سوزی های وسیع در تصاویر چندطیفی پیشنهاد شده است. ایده ی اصلی این روش، عدم امکان بازسازی دقیق دود در باندهای متاثر از دود (باندآبی) به کمک مدل های رگرسیونی از سایر باندهای طیفی است. در گام اول از روش پیشنهادی، قدر مطلق باقیمانده های تخمین رگرسیونی باند طیفی آبی به کمک آستانه گذاری اتسو به یک ماسک باینری تبدیل می شود. سپس در یک روند تکراری، نواحی غیر دود شناسایی و خوشه بندی می گردند. در روند تکرار، به ازای هر خوشه یک مدل رگرسیونی برازش یافته و برای هر پیسکل از ضرایبی که کمترین خطای بازسازی باند آبی را برخوردار باشند استفاده می شود. اینکار با تخمین دقیق تر باند آبی، اثر خطاهای نوع اول را کاهش داده و ماسک بدست آمده از روند آستانه گذاری باقیمانده ها را به سمت نواحی دود هدایت می سازد. آخرین گام از روند پیشنهادی نیز به پالایش و حذف قطعات تصویری نادرست اختصاص دارد. موفقیت این روش در شناسایی دودهای رقیق مطلوب بوده و از دیگر ویژگی های این روش نیز می توان به عدم شناسایی دود در تصاویر فاقد دود اشاره داشت. نتایج پیاده سازی این روش در چند مجموعه داده توام با دود های رقیق بطور متوسط دقت 04/99 درصدی را تامین ساخته است.

    کلیدواژگان: آشکارسازی دود، مدل رگرسیون خطی، خوشه بندی تکراری، آستانه گذاری اتسو
  • محمدرضا رنجبری، رمضان واقعی، بهناز بیگدلی* صفحات 159-181

    سنجش از دور و سیستم اطلاعات جغرافیایی در هیدرولوژی آب های سطحی و زیرسطحی و شناسایی مناطق دارای پتانسیل منابع آب زیرزمینی کاربرد فراوانی دارند. در کشورهای واقع در خاورمیانه با آب و هوای خشک و با وجود حجم گسترده از خشکسالی و تغییرات آب و هوایی، شناسایی و دنبال کردن تغییرات منابع آب زیرزمینی از اهمیت ویژه ای برخوردار است. این تحقیق با استفاده از سنجش از دور و سیستم اطلاعات جغرافیایی، پتانسیل یابی و ارزیابی منابع آب در سازندهای سخت غرب و شمال غرب شاهرود در وسعتی حدود 480 کیلومترمربع را بررسی می کند. در این منطقه به دلیل وجود سنگ های کربناته و همچنین عملکرد فرسایش و نیروهای تکتونیکی در بخش هایی از منطقه، آبخوان های نسبتا مناسبی شکل گرفته اند. برای این منظور لایه های اطلاعاتی گسل، لیتولوژی، شیب، جهت شیب، آبراهه ها، مقدار بارندگی و نوع بارش توسط روش تحلیل سلسله مراتبی (AHP) ارزیابی شدند. در این پژوهش تهیه لایه های اطلاعاتی با استفاده از توانایی RS و GIS در سه مرحله اصلی صورت پذیرفت: استخراج نقشه زمین شناسی، استخراج خطواره های منطقه و استخراج سایر لایه های اطلاعاتی. در تهیه نقشه زمین شناسی با تاکید بر سازندهای آهکی از تکنیک های تحلیل مولفه مستقل، کمترین کسر نویز، ترکیب رنگی و نسبت باندی بر روی تصاویر ماهواره لندست 8 استفاده شد. با استفاده از اندیس خلوص پیکسل، Endmember های منطقه استخراج و با روش های ماشین بردار پشتیبان و بیشترین شباهت طبقه بندی صورت گرفت. نقشه لیتولوژی منطقه با دقت قابل قبول و ضریب کاپا 0.83 در مقایسه با نقشه زمین شناسی منطقه به دست آمد. در ادامه، خطواره های منطقه با استفاده از داده های لندست 8 و داده راداری سنتینل1 با تلفیق روش اتوماتیک و دستی استخراج گردید و نتایج حاصل از این دو سنجنده با هم ادغام شد. بر اساس نتایج، جهت گیری خطواره های استخراج شده با جهت گیری گسل های نقشه زمین شناسی منطقه از انطباق خوبی برخوردار است. تعداد خطواره های استخراج شده در بازه های طولی مختلف نیز پیوستگی خوبی با تعداد گسل ها در بازه های طولی مختلف دارد. همچنین تراکم طول خطواره های استخراج شده در سازندهای مختلف در مقایسه با تراکم طول گسل ها در سازندها از تطابق عالی به میزان 99 درصد برخوردار است. سایر لایه های اطلاعاتی با استفاده از SRTM 30 متری استخراج گردیدند. همچنین ملاحظه شد که نقشه پتانسیل آب های زیرزمینی عمدتا توسط عوامل بارش، سنگ شناسی و تراکم خطواره ها کنترل می شوند.

    کلیدواژگان: پتانسیل آب زیرزمینی، سیستم اطلاعات مکانی، سنجش از دور، تحلیل سلسله مراتبی
  • منیژه محمدی، فرهاد حسینعلی* صفحات 183-197

    دانشگاه به عنوان فضای پرورش دهنده متخصصان آینده کشور، نقشی اساسی در ساختار اجتماعی، فرهنگی و اقتصادی جامعه ایفا می کند. نظام آموزشی و محتوای آموزشی از یک سو و فضای آموزشی از سوی دیگر دو عامل مهم و موثر در پرورش دانشجویان محسوب می گردند. از آن جا که فضاهای آموزشی یکی از مهمترین کاربری ها در شهرها هستند، هماهنگی با بافت های شهری از مسایل مهم طراحی فضاهای آموزشی محسوب می شود. در بسیاری از شهرهای بزرگ و متراکم، موقعیت مکانی کاربری های آموزشی به دلایل مختلف مانند قرارگیری در مجاورت کاربری های مزاحمی مثل کاربری های صنعتی، نظامی و واقع شدن در مکان های آلوده و یا دور بودن از امکانات رفاهی از وضعیت چندان مطلوبی برخوردار نمی باشد که این امر باعث افت کیفیت خدمات دانشگاه ها و تاثیرات نامطلوب بر روی دانشجویان می شود. در این تحقیق با استفاده از تجزیه و تحلیل های موجود در سیستم اطلاعات مکانی به مقایسه و ارزیابی کیفیت موقعیت مکانی شش دانشگاه تهران پرداخته شده است که عبارت اند از: دانشگاه شهید رجایی، دانشگاه علم و صنعت، دانشگاه علامه طباطبایی، پردیس دانشکده های فنی دانشگاه تهران، دانشکده عمران و نقشه برداری دانشگاه خواجه نصیرالدین طوسی و دانشگاه امیرکبیر.  برای یافتن شاخص های مهم از تعداد زیادی از دانشجویان این دانشگاه ها نظرخواهی انجام گرفت. با توجه به نظرات ابراز شده شاخص های این پژوهش  شناسایی و در دو بعد فیزیکی و زیست محیطی تقسیم گردید. به منظور استخراج مقادیر شاخص ها از تصاویر ماهواره ای، نقشه های موجود و اطلاعات آماری استفاده شد. مقایسه و ارزیابی اهمیت شاخص ها بر پایه نظرات بالغ بر 500 تن از دانشجویان این دانشگاه ها صورت گرفت و در نهایت برای تلفیق نظرات از روش های تصمیم گیری چند معیاره AHP و تخمین نسبت استفاده گردید. یافته های پژوهش نشان می دهد که دانشگاه امیرکبیر در مجموع شاخص ها دارای بالاترین رتبه است و پس از آن به ترتیب دانشگاه های خواجه نصیر، علم و صنعت، پردیس دانشکده های فنی دانشگاه تهران، شهید رجایی و علامه طباطبایی قرار می گیرند.

    کلیدواژگان: موقعیت مکانی، سازگاری، دسترسی، محیط زیست، دانشگاه، تهران
  • امید عسگری، نجمه نیسانی سامانی*، سارا عطارچی صفحات 199-212

    تغییرات کاربری اراضی در اثر فعالیت های انسانی، عدم تعادل فضایی و توسعه فیزیکی ناموزون در گستره مناطق شهری، باعث شده پایش تغییرات کاربری زمین یکی از اصلی ترین دغدغه مدیران و برنامه ریزان شهری باشد. در این پژوهش به منظور انجام بررسی های مربوط به صحت سنجی اطلاعات جغرافیایی داوطلبانه تغییرات کاربری اراضی از ترکیب داده های سنجش از دوری و اطلاعات جغرافیایی داوطلبانه استفاده شده است. بدین جهت تصاویر ماهواره ORBVIEW-3 برای سال 2005، ماهوراه  IRS برای سال های 2008، 2010 و 2015 و تصاویر گوگل ارث از سال 2011 تا 2019 به عنوان پایگاه داده مرجع بکار گرفته شده است. یکی از موضوعات مورد بحث در زمینه صحت سنجی اطلاعات جغرافیایی داوطلبانه در پایش تغییرات کاربری اراضی مربوط به کیفیت این اطلاعات می باشد. معیارها و شاخص های مختلفی برای ارزیابی کیفیت پارامترهای VGI در زمینه صحت سنجی کاربری های تغییریافته ارایه شده است که در این تحقیق 3 معیار تمامیت، دقت مکانی و دقت شکلی داده ها مورد ارزیابی قرارگرفته است. مقاله حاضر با هدف ارزیابی کیفیت اطلاعات جغرافیایی داوطلبانه مربوط به تغییرات کاربری اراضی و مقایسه نتایج آن با داده‎های تولید شده از تصاویر ماهواره ای به عنوان داده های مرجع صورت گرفته است. در واقع استفاده از دانش محلی افراد در فرایند برنامه ریزی شهری و اهمیت به هنگام بودن اطلاعات جهت مدیریت و تصمیم گیری بهتر در برابر پدیده‎هایی مثل گسترش شهرنشینی، باعث توجه و پی بردن به اهمیت اطلاعات جغرافیایی داوطلبانه در زمینه تغییرات کاربری اراضی شده است. در این پژوهش به منظور ارزیابی و اعتبارسنجی داده های جغرافیایی داوطلبانه، ابتدا تصاویر ماهواره ای از مراکز ذیربط اخذ و اقدام به استخراج و تفکیک اراضی مورد بررسی گردید. سپس به منظور جمع آوری داده های داوطلبانه، سامانه ای تحت وب طراحی تا کاربران بعد از ثبت اطلاعات شخصی و اطلاعات مربوط به کاربری، اقدام به ترسیم عوارض مربوطه نمایند. در نهایت کیفیت داده ها مورد بررسی قرار گرفت. در اولین گام تمامیت داده ها محاسبه گردید. بر اساس نتایج بدست آمده، میزان تمامیت داده‎های داوطلبانه در سال های مختلف متفاوت می‎باشد و هر چقدر از زمان حال دورتر می شویم از دقت آن کاسته می شود به طوری که در سال 1397، 72.7 درصد از داده های داوطلبان با داده های مرجع کاملا همپوشانی داشت اما در سال 1386 این رقم به 25 درصد کاهش یافت. در گام بعدی دقت مکانی داده ها محاسبه گردید. برای ارزیابی این پارامتر از روش فاصله مرکزی استفاده شده است. نتایج حاصل از فواصل بین مرکز پلیگون داده های داوطلب با مرکز پلیگون داده های مرجع نشان می‎دهد که بیشترین و کمترین فاصله به ترتیب 14.37 و 0.09 متر بوده است. در آخرین گام دقت شکلی داده های داوطلب مورد بررسی قرار گرفت. با توجه به انحراف معیار 0.61 می توان گفت که هر دو پایگاه داده از لحاظ دقت شکلی تفاوت قابل توجهی با هم دارند. به طور کلی می‎توان نتیجه گرفت که داده‎های VGI برای مطالعات مربوط به تغییرات کاربری اراضی می تواند مناسب باشند در صورتی که تصاویر مورد استفاده از قدرت تفکیک مکانی بالایی برخوردار باشند.

    کلیدواژگان: اطلاعات جغرافیایی داوطلبانه، مولفه های کیفیت VGI، فناوری وب سرویس، تصاویر ماهواره ای
  • ایمان شاه مردانی، رحیم علی عباسپور، علیرضا چهرقان* صفحات 213-226

    با افزایش کاربرد داده های مکانی در زندگی روزمره، تولید این داده ها از منابع اطلاعاتی مختلف با دقت و مقیاس های متفاوت رشد وسیعی داشته است. تولید داده های جدید نیاز به اختصاص زمان و هزینه بسیاری می باشد. از این رو یکی از راهکارهای کاهش هزینه، به روزرسانی داده های قدیمی در مقیاس های مختلف با استفاده از داده های جدید (تهیه شده در یک مقیاس) می باشد. یکی از رویکردهای به روزرسانی داده ها بکارگیری مجموعه داده بزرگ مقیاس به روزشده به عنوان داده مرجع برای به روزرسانی مجموعه داده کوچک مقیاس است؛ به این صورت که عوارض تغییر یافته در دو مجموعه داده شناسایی و سپس با اصلاح تغییرات متناسب با مجموعه داده کوچک مقیاس به روزرسانی انجام می شود. مسایل به روزرسانی نقشه در مجموعه داده برداری از منظر نوع عارضه به روزرسانی شده به سه دسته نقطه ای، خطی و چندضلعی تقسیم بندی می شوند. یکی از دسته عوارض مهم از کلاس عوارض چندضلعی در محیط های شهری، ساختمانها هستند که در نقشه های شهری از اهمیت بسزایی برخوردارند و به روزرسانی آنها در کاربردهای شهری از اولویت بالایی برخوردار است. در این مقاله سعی شده است با بررسی دقیق و جامع مطالعات پیشین، مسایل به روزرسانی عوارض چندضلعی (بویژه ساختمانها) از سه منظر روش های خوشه بندی، استخراج الگو و روش های به روزرسانی مورد استفاده بررسی شوند. همچنین دسته بندی در هر دیدگاه و مزایا و معایب روش های مختلف نیز در آن ارایه شده است.

    کلیدواژگان: مجموعه داده های برداری، به روزرسانی، عوارض چندضلعی ساختمانی
  • مهدی رضایی*، علیرضا وفایی نژاد، رضا راستی صفحات 227-236

    امروزه با توجه به فراگیر شدن استفاده از سیستم های تصویر جهانی مانند سیستم تصویر UTM در پروژه های نقشه برداری با تکیه بر بیضوی های مراجعه، یافتن ضریب مقیاس ترکیبی مناسب هر پروژه، جهت اجرای پروژه های عمرانی با استفاده از تجهیزات نقشه برداری مانند دستگاه های توتال استیشن، امری ضروری می باشد. متاسفانه امروزه نحوه محاسبه و تخصیص ضریب مقیاس ترکیبی متوسط در پروژه های نقشه برداری به صورت کاملا علمی صورت نمی پذیرد و معمولا ضریب مقیاس های ترکیبی نامناسبی محاسبه و اعمال می گردد که باعث ایجاد خطاهای غیر قابل قبول در پروژه می گردد. در این پژوهش یک پروژه اجرایی مورد بررسی قرار گرفت و به چند روش ضریب مقیاس هایی برای آن محاسبه شد. نتایج نشان داد، روشی که ضریب مقیاس را با در نظر گرفتن کل محدوده پروژه در سه بعد محاسبه کرد، دقیق ترین حالت ممکن را در پی داشت. ارزیابی دقت کار نشان داد که بیشترین خطای مربوط به ضریب مقیاس متوسط در یک طول هزار متری، مربوط به منتهی الیه شرق و غرب پروژه به میزان 0.048 متر و کمترین آن مربوط به مرکز پروژه با میزان 0.002 متر می باشد. همچنین مشخص گردید در صورتی که خطای مجاز اعمال ضریب مقیاس متوسط، 5 میلیمتر در نظر گرفته شود، حدود 1266 متر می توان از مرکز پروژه به سمت شرق و غرب با همان ضریب مقیاس متوسط فعالیت نقشه برداری انجام داد و اگر خواسته شود که بیشتر از آن محدوده فعالیت نقشه برداری انجام شود، یا باید خطای بیشتر را پذیرفت و یا اینکه یک ضریب مقیاس متوسط دیگری نیز برای محدوده جدید محاسبه گردد.

    کلیدواژگان: پروژه های نقشه برداری، سیستم تصویرUTM، ضریب مقیاس ترکیبی، بهینه سازی
|
  • H. Jamshid Moghadam, M. Mohammady Oskuei* Pages 1-26

    The hyperspectral imagery provides images in hundreds of spectral bands within different wavelength regions. This technology has increasingly applied in different fields of earth sciences, such as minerals exploration, environmental monitoring, agriculture, urban science, and planetary remote sensing. However, despite the ability of these data to detect surface features, the measured spectrum is composed of several components that make it a mixed spectrum due to the low spatial resolution observed of the employed sensors or the presence of multiple materials in its instantaneous field of view (IFOV). The existence of a mixed spectrum severely prevents the accurate processing of the hyperspectral data. Therefore, it is necessary to separate these mixtures through the so-called spectral unmixing methods. Spectral unmixing is performed to decompose a mixed pixel in hyperspectral images into a set of spectra (endmembers) and their abundances. Typically, two types of spectral mixing models (linear and nonlinear) are considered. In the linear mixing model (LMM), the reflected radiance at the sensor is the outcome of interference with one material, where a pixel is assumed to be a linear combination of endmembers weighted by their abundances. The nonlinear model, on the other hand, is used when the mixing scale is microscopic or materials are mixed intrinsically. In recent years, the linear mixing model has been a very popular model for hyperspectral processing in the last decades, and a large effort has been put into using this model for unmixing applications, resulting in an overabundance of linear unmixing methods and algorithms. Over the last decades, the linear mixing model has been utilized in the detection of minerals and their abundances. However, as early as 40 years ago, it has been observed that strong nonlinear spectral mixing effects are present in many situations, for instance, when there are multi scattering effects or intimate mineral interactions. While such nonlinear unmixing techniques have received much less attention than linear ones.
    Therefore, this paper aims to give an overview of the majority of nonlinear mixing models and methods used in hyperspectral image processing, and many recent developments in this field. Besides, several of the more popular nonlinear unmixing techniques are explained in detail. In this regard, nonlinear unmixing methods can be categorized into two groups: physics-based methods and data-driven techniques. The most important methods of these two groups are divided into bilinear and multi-linear models, intimate mineral mixture models, radiosity based approaches, ray tracing, neural network, kernel methods, manifold learning, and topology methods. A comprehensive review of these methods can be found in which bilinear and multi-linear models and neural networks have become more popular among researchers over the years. The current study should give the reader that is interested in working with nonlinear unmixing techniques a reasonably good introduction into the most commonly used methods and approaches.

    Keywords: Remote Sensing, Hyperspectral, Nonlinear Unmixing, Bilinear Models, Intimate Mineral Mixture, Neural Network, Topology
  • S. Khoramak, F. Tabib Mahmoudi* Pages 27-37
    Introduction

    Information about vegetation cover and their health has always been interesting to ecologists due to its importance in terms of habitat, energy production and other important characteristics of plants on the earth planet. Nowadays, developments in remote sensing technologies caused more remotely sensed data accessible to researchers. The combination of these data improves the object classification and recognition results. Recently, hyperspectral and Lidar data has been used for vegetation covers classification. The spectral information derived from hyperspectral data is used to classify and identify the vegetation cover. However; due to the spectral similarities between various vegetation types, false positive results are increased. Using relief information extracted from Lidar data can solve these kinds of errors and can be very efficient for improving the object recognition results. Spectral similarities and spatial adjacencies between various kinds of objects, shadow and occluded areas behind high rise objects as well as the complex relationships between various object types lead to the difficulties and ambiguities in vegetation recognition among other objects in urban areas. Therefore, new procedures and higher levels of modifications should be considered for improving the object recognition results. In recent years, the multi-agent systems have been considered as one of the most powerful tools for solving the problems of automatic object recognition in urban areas.

    Method

    According to the difficulties of vegetation recognition in complex urban areas, the proposed object recognition in this paper is a decision level fusion strategy between hyperspectral and Lidar data based on the capabilities of the multi-agent systems. Vegetation indices from hyperspectral image are used as spectral features in the knowledge base. Moreover, digital surface model which is produced from Lidar data is used for height features extraction. After producing a rich knowledge base containing the spectral and height based features, the proposed hierarchical classification is performed which is composed of two steps; step 1: initial vegetation candidate recognition, step 2: vegetation classification based on the capabilities of the multi-agent systems. Applying the optimum thresholds on the normalized difference vegetation index in the first step produces a binary image containing the initial vegetation candidates. The multi-agent system in the second step of the proposed method in this paper contains several object recognition agents (one agent per each vegetation cover type), a coordinator agent and a yellow page. The object recognition agents have three layered internal architecture and use the belief-desire-intention (BDI) reasoning model. 

    Results

    The capabilities of the proposed multi-agent vegetation recognition algorithm in this paper is evaluated based on the hyperspectral and Lidar data collected from the University of Houston and the surrounding areas. Four object recognition agents are defined for trees, healthy grass, water-stress grass and artificial grass. These four object recognition agents perform their reasoning based on the pre-defined spectral and height features in the knowledge base. The obtained results indicate the overall accuracy of about 87% from the proposed multi-agent hyperspectral and Lidar decision fusion strategy. The obtained results from performing the same multi-agent system only on the hyperspectral image (without considering Lidar data) have the overall accuracy for about 71%.

    Keywords: Vegetation Recognition, Multi-agent System, Lidar Data, Hyperspectral Image, Spectral, Height Features
  • S. Allahyari Bek*, A. R. Safdarinezhad, R. Karimi Pages 39-53

    The ability of recording the high resolution spectral signature of earth surface would be the most important feature of hyperspectral sensors. On the other hand, classification of hyperspectral imagery is known as one of the methods to extracting information from these remote sensing data sources. Despite the high potential of hyperspectral images in the information content point of view, there are a numerous challenges in reliable extraction of information from these images. The issues such as 1- spectral similarity of different phenomena, 2- sensor noises and atmospheric effects, 3- the effects of high dimensionality in the pattern recognition algorithms, 4- the necessity of large number of training data to perform a reliable classification, and 5- spectral variability of similar phenomena could be considered as some of the challenges in hyperspectral data processing. Decreasing of the high dimensionality effects via the dimension reduction algorithms (e.g. band selection and feature extraction algorithms), as well as increasing the separability of the overlapped classes through the linear/non-linear mappings into the feature spaces with the higher dimensional are two opposite and conventional approaches of hyperspectral data processing. These approaches would be used based on the factors such as 1- complexities of classes in the imaging area, 2- spectral range of imaging sensor, and 3- the restrictions of processing algorithms. In this paper the fusion of these two approaches is used to perform an accurate hyperspectral image classification. To do so, a novel feature extraction method is proposed to be used in the hyperspectral image classification. The core of this method is the fusion of the linear, non-linear and sparse representation based features which is used to produce the effective features in the weighted K-Nearest Neighbors (KNN) classification method. In this procedure, a set of supervised and nonlinear features are extracted as the first step through the Nonlinear Principal Component Analysis (NLPCA). The supervised usage of NLPCA in order to extract features is known as one of the novelties of this paper. In this step, the spectral bands are usually mapped to a high dimensional feature space through the self-estimator artificial neural networks (ANNs) which are trained separately by ground truth data. In the second step, the previously extracted features are linearly transformed by the Linear Discriminate Analysis (LDA) method in order to reduce the dimension of the hypercube generated via supervised NLPCA to a separable feature space. In the last step, a set of features which is proportional to the number of classes is generated based on the sparse representation theory. The sparse representation features were hired to handle the effects of the inter-class variability. The precisions of the classified features in the two different hyperspectral images were on average shown 6 percent improvements in comparison with the spectral bands and the other combinations of extracted features. Furthermore, reach to the approximately 99% overall accuracies in the classes with the few training data could be considered as other achievements of the proposed method.

    Keywords: Hyperspectral Image, Classification, Sparse Representation, Feature Extraction
  • R. Mohammadi Asiyabi, M. R. Saheni* Pages 55-64

    Land cover is defined as the physical material of the surface of the earth, including different vegetation covers, bare soil, water surface, various urban areas, etc. Land cover and its changes are very important and influential on the Earth and life of living organisms, especially human beings. Land cover change monitoring is important for protecting the ecosystem, forests, farmland, open spaces, water quality, wildlife habitat, and human health. Uncontrolled changes in land cover (deforestation, extensive agricultural activities, vast urban and exurban development, etc.) will not only destroy the natural environment and the ecosystem but also will affect different aspects of human life including the economy. As a result, various effective methods for land cover monitoring are always deliberated by researchers. Remote sensing based techniques, due to their unique capabilities and extensive data availability, have attracted great interest for decades. In addition, fully Polarimetric Synthetic Aperture Radar (PolSAR) images, due to the rich data and the ability of day-night and all weather condition data acquisition, has got high capability to study and monitor land cover changes. Recent developments of SAR sensors in acquiring fully polarimetric, continuous, and very high resolution data, besides enabling precise land cover monitoring, has necessitates the usage of more powerful and robust algorithms in different image processing steps. Classification algorithms are among the most fundamental tools of remote sensing image processing; and an increasing number of researches have been focused on developing novel and more robust classification methodologies for remote sensing data in recent years. Mid-level representations have also been introduced to the remote sensing data classification to enhance the reasonability and semantic rationality of the land cover classifications through remote sensing techniques. Bag of Visual Words (BOVW) model, originally inspired by the Bag of Words (BOW) model from text mining, is one of the most authoritative mid-level representation models which has achieved state-of-the-art results in different image processing tasks. BOVW representation model has recently been introduced to remote sensing data processing and proved to be very beneficial for high resolution remote sensing data representation. In the present paper, a novel segment-based BOVW framework has been developed for PolSAR data representation and classification. The obtained classified maps are quantitatively and qualitatively compared with the result of classification with well-known classifiers including Support Vector Machine (SVM), Artificial Neural Network (ANN), and Wishart Classification Algorithms. The main contributions of the current study are (i) covering the semantic gap between low-level features extracted from the PolSAR image and high-level concept of land cover in remote sensing data classification (ii) introducing novel segment-based BOVW framework for PolSAR image classification, and (iii) extensive evaluation of the performance of the BOVW model for PolSAR data classification in terms of the model parameters and low-level features selection. The experimental dataset is acquired by RADARSAR-2 from San Francisco Bay, California, in C band and at fine quad-pol mode, in 2008. The achieved overall accuracy, 90.1%, illustrates the capability of the proposed model for SAR image classification purposes. Moreover, the proposed segment-based framework for the BOVW model has decreased the undesired speckle effect of the SAR data, without speckle filtering.

    Keywords: Synthetic Aperture Radar, Classification, Bag f Visual Words, SVM
  • E. Sadooghi, M. Taleai*, S. Abolhasani Pages 65-82

    Urban growth is a dynamic and evolutionary spatial and social process that relates to the changes of urban spatial units and the transformation of people’s lifestyles and consequently demographic changes. Considering the urban development process as a function of land uses interactions, population structure and the strategic behavior of the agents involved in the urban development process (the Developer as the investor and the Municipality as the planner and regulator), asking for developing a framework to capable modeling and analyzing these driving actors. This study is presented a model based on the integration of cellular automata, multi-criteria analysis and agent-based Game theory for land use planning and simulation of urban development using two urban population changing scenarios. This integration is used as a tool for modeling and quantifying land uses interactions with respect to their service region. Moreover, in the proposed model, land-use type change is defined as the outcome of the interaction between two decision-makers (agent): Developer and Municipality. Game theory is used to model and quantify the strategic behavior of these two agents. The developer’s strategy is to develop spatial units that have more suitability due to their neighborhood externalities and current demand for each land use type while the municipality’s strategy is to protect the zoning regulations based on the master plan and land use suitability. The utility functions are defined based on each agents’ preferences, the game structure for each spatial unit is composed based on developer priorities (as proposer) and the bargaining situation between agents involved in the development process (as a sequential game) is solved using backward induction process. Utilizing Game theory will result in finding an optimal and rational strategy for both agents in developing land-use types for each permissible spatial unit. The methodology presented in this study proposes a rational and realistic approach for urban land use planning and simulating urban growth. To evaluate the performance of the proposed model, it was implemented in the region of Roozieh in the city of Semnan. Two scenarios were modeled based on the Semnan’s approved master plan. The suitability of developed land-use types is evaluated using multi-criteria analysis. In order to provide a more efficient evaluation method, the outcome of the implementation of each scenario using the proposed method was evaluated to provide a basis for comparing results based on the concept of spatial equity. The results demonstrate the ability of the model to simulate the outcome of urban land-use development plans based on the regulations and guidelines of the master plan, especially for the balanced distribution of services and service availability.

    Keywords: Urban Development Simulation, Multi-Criteria Analysis, Cellular Automata, Agent-Based Model, Game Theory
  • R. Zamani*, M. Mashhadi Hossainali Pages 83-95

    By today, the technology of synthetic aperture radar (SAR) interferometry (InSAR) has been largely exploited in digital elevation model (DEM) generation and deformation mapping. Conventional InSAR technique exploits two SAR images acquired from slightly different angles, in which the information of elevation and deformation can be captured through processing of the phase difference of the images called interferometric phase. Depart from undeniable efficiency of interferometric SAR processing technique (InSAR), some main issues such as phase unwrapping ambiguity may limit its applications and its accuracy in height mapping. However, in the frame of multi-baseline interferometry and by the availability of more than one interferogram of the same region these problems can be overcome. Multi-baseline SAR interferometry are hence of great interest and can be successfully exploited for automatic phase unwrapping and high quality DEM reconstruction. This paper focuses on stacks of interferometric SAR data as they are used as input to multi-baseline framework for the purpose of height estimation and compare the results of such local and non- local covariance matrix estimation methods achieved by same data and on the same area, where the information of estimated covariance matrix is employed in the elevation mapping. In local methods such as Boxcar, a fixed-size window is considered for the central pixel which do not consider the statistical homogeneity of neighboring pixels, so this method in non-homogenous area leads the results to lower accuracy. In non-local methods the procedure is centered around the idea of checking the pixels to find the same statistical distribution as the investigated pixel, which is realized by Wishart similarity function. In this case, all the similar pixels are then used to estimate the complex covariance matrix of the reference pixel. In the context of non-local filtering, one of the most efficient method is NLSAR approach, which has been considered in our framework. More precisely, NLSAR uses samples in a search window and assigns each pixel a weight based on its similarity to the target pixel. The idea of NLSAR approach is to find, within a search window, for each pixel p to be filtered non-local neighbors t that share statistical similarity with the considered pixel. A pixel t is assumed to come from the same statistical population as the considered pixel p, if the patches or local neighbors that surround the two pixels are similar. The similarity for two pixels is defined as a likelihood-ratio test based on the hypothesis that their two Wishart distributed covariance matrices are equal. The main peculiarity that made the NLSAR approach extremely popular is its ability of filtering noise while preserving structures and discontinuities. The stadium height estimated by using the covariance matrix estimated with Boxcar and NLSAR methods respectivey is equal to 41.100 and 42.5400 meter which in the comparison with the actual height extracted from AfriSAR mission, indicates higher accuracy for the results of NLSAR method. The task of covariance matrix estimation is so challenging for complex area such as the area used for this paper which contains the Angondjé stadium in Mondah, Gabon, that represented a complex scenario because of the occurrence of layover, a phenomenon that gives rise to the interference within the same pixel of ground scattering mechanisms located of different height with  same slant range distance. we use PCA (Principal Component Analysis) to decompose principal scattering mechanisms. Then , the powerful statistics Maximum Likelihood (ML) technique is used to properly compute the elevation information of the principal components by the available information of covariance matrix. From this covariance matrix, both amplitude and interferometric phase values extracted which are then used for height estimation.

    Keywords: Synthetic Aperture Radar (SAR), Height Estimation, SAR Interferometry, Multi-baseline, PCA, Covariance Matrix Estimation
  • A. Toosi, F. Dadrasjavan*, F. Samadzadegan Pages 97-110

    Panchromatic and multi-spectral images produced by the remote sensing satellites are fused together to provide a multi-spectral image with a high spatial resolution at the same time. The spectral quality of the fused images is very important because the quality of a large number of remote sensing products depends on it. Due to the importance of the spectral quality of the fused images, its evaluation is also important. This paper presents an object-based strategy for evaluating the spectral quality of fused images, aiming to overcome the limitations of the current pixel-based method. This type of assessment is conducted by focusing on homogeneous objects with similar spectral and textural behaviors. In the implementation phase of the article, after determining an optimal spectral metric, the proposed object-based strategy is applied to five datasets from four different satellite sensors types, and the spectral behavior of the fusion methods has been studied in several image classes. The results indicate that the spectral behavior of the fusion methods does not follow a deterministic rule. Finally, statistical analyses were used to determine the best fusion algorithms in each class, and a list of superior algorithms in different classes was provided to researchers in the field of remote sensing and image fusion. This approach will help the scientific community to take a realistic vision at choosing the fusion algorithm appropriate to their satellite imagery.

    Keywords: High-resolution, Image Fusion, Spectral Quality Assessment, Object-based
  • R. Azizi*, M. Sattari, M. Momeni Pages 111-132

    Hyperspectral data in Remote Sensing which have been gathered with efficient spectral resolution (about 10 nanometer) contain a plethora of spectral bands (roughly 200 bands). Since precious information about the spectral features of target materials can be extracted from these data, they have been used exclusively in hyperspectral target detection. One of the problem associated with the detecting process using hyperspectral data is the spectral variation due to topography variability and spectral mixing. Moreover, imperfect sensor noises and atmospheric influences on the target radiance together lead the observed spectral feature of the same material to change in different situations. Target detection methods model the spectral variation in order to compensate their effects on the process. Statistics and subspace based approaches are the two most important methods used in detection process. Statistics and subspace based approaches are the two most important methods used in detection process. Using special statistical assumptions and modeling the spectral variation with limited number of parameters are the main disadvantages of these methods. One of the strongest detection method is the sparse representation method. It models the differences in the spectral features of targets and background using dictionary matrices. Indeed, it constructs a complete subspace of materials spectrum and their variations. Building a pure dictionary (clean of spectral mixing) is the main challenge associated in the sparse representation method in the detecting process. Three methods- the dual windows, the global and the learned dictionary- have been introduced in literature. In the dual windows, since it uses outer window to select the target pixels, spectral mixing has not been cleaned. In the learned dictionary as it uses random picked pixels in order to learn the dictionary, the risk of spectral mixing exists. Furthermore, spectral mixing exists in general method. Considering the disadvantages of the aforementioned methods, in this thesis we introduce a new method to construct the dictionary. Not only do the dictionary atoms provided by this method construct a complete subspace and model spectral variation, but they also are as pure as possible.  In the proposed method, it is tried to achieve two main purposes which are forming the background subspaces and minimizing the spectral mixing of atoms in the dictionary and target. To this end, correlations between target spectrum and all image pixels are calculated. Afterwards, using image pixels which have different degrees of correlation with target spectrum, different dictionaries are created for the background. Finally, a dictionary is selected from the created dictionaries which presents a complete subspace of image and the subspace also has the lowest correlation with the target spectrum. In this paper, the proposed method of making a dictionary along with a sparsity model, called SRBBH is used and introduced as method Proposed+SRBBH. To survey the efficiency of the proposed methods, a simulation data set and three real data were used, and in order to evaluate the methods, the area below the ROC chart level was used. In experiments performed on both Cuprite and Sandiego data, the area under the graph was 0.9997 and 0.9961, respectively, which shows higher values than other methods. For the other two sets of data, the proposed method performs better than other methods of target detection.

    Keywords: Target Detection, Hyprspectral Data, Sparse Representation Methods, Spectral Variation, Dictionary
  • N. Kaffash Charandabi*, A. Gholami Pages 133-143

    Modeling a road accident hazard zoning map to identify high-risk areas is a very effective step to reduce the resulting casualties. Due to the dynamic nature of many of the factors affecting the identification of these areas, traditional zoning mapping does not seem to be effective. In the field of ubiquitous modeling in the framework of the GIS, it is possible to produce a separate map at any time, any place, for any user and under any circumstances that is more compatible with his or her changing individual and environmental conditions. In this study, in a hybrid model of data mining methods based on 22 environmental and individual contexts the probability of accident risk was calculated for each user. Thus, by obtaining the accident data recorded in Tabriz Marand road in 2019, the required pre-processing was done based on T2 statistic and PCA method. Then, based on GRNN and the collected data, the optimal network was trained and then evaluated with test data. In addition, eight different scenarios were designed for this case study and at 3008 points of this road, the risk of accident was predicted for each scenario. The results showed more than 90 % accuracy for the proposed model of this study. According to the results of different scenarios, the 5 km area around customs and 3 km around Sufian city have the highest risk in this road, which can be verified by 50 accidents happened in this area during the mentioned period.

    Keywords: Ubiquitous GIS, Accident, Zoning Map, GRNN, Context Awareness
  • M. Fathi*, M. Mokhtar Zade, A. R. Safdarinezhad Pages 145-157

    One of the consequences of a fire is smoke. Occasionally, monitoring and detection of this smoke can be a solution to prevent occurrence or spreading a fire. On the other hand, due to the destructive effects of the smoke spreading on human health, measures can be taken to improve the level of health services by zoning and monitoring its expansion process. In this paper, an automated method is proposed to detect the dilute smoke caused by large fires in multispectral images. The main idea of this method is the impossibility of precisely reconstructing the smoke in the bands affected by smoke (blue band) using regression models from other spectral bands. In the first step of the proposed method, the absolute value of the residuals of the regression estimation of blue spectral band is transformed into a binary mask with the help of Otsu thresholding. Afterwards, in an iterative process, non-smoke areas are detected and then clustered. In the iteration process, a regression model is fitted for each cluster and for each pixel, coefficients with the least error of the blue band reconstruction is used. Through more accurate estimation of the blue band, it reduces the effect of First Positive Error and leads the mask of residuals obtained from thresholding process to the smoke areas. The final step of the proposed method is to refine and remove the incorrect image segments. This method has been successful in detecting diluted smokes and also in disregarding smoke in non-smoky images. The results show the average accuracy of  99.04 percent in several datasets with diluted smokes.

    Keywords: Smoke Detection, Linear Regression Model, Iterative Clustering, Otsu Tresholding
  • M. R. Ranjbari, R. Vagheei, B. Bigdeli* Pages 159-181

    In recent years, rapid population growth has led to increase per capita water use in various sectors including agriculture and industry and a growing gap between water demand and water supply has emerged. Therefore, identifying and tracking changes in groundwater resources as an alternative and reliable source of surface water resources are so important to region located in the Middle East with dry weather and large volumes of drought and climate changes. In the current study, the potential and evaluation of water resources are investigated in the west and northwest formations of Shahroud in an area of about 480 square kilometres using remote sensing and spatial information techniques. In this region, due to the presence of carbonate rocks as well as the function of erosion and tectonic forces in parts of the region, relatively suitable aquifers have been formed. For this purpose, information layers including lineament, lithology, slope, aspect, waterways, precipitation and type of precipitation were evaluated by Analytical Hierarchy Process (AHP) method. In this study, information layers were prepared using the ability of RS and GIS in three main stages: extraction of geological map, extraction of area lineaments and extraction of other information layers. The proposed methodology applied two different types of remote sensing sensors including Landsat 8 as optical data and Sentinel-1 as radar data. In preparing lithology map with emphasis on calcareous formations, the proposed method applied four techniques including independent component analysis (ICA), minimum noise fraction (MNF), band ratio (BR) and color composition on Landsat 8. Using the pixel purity index, the endmemberes were extracted and the obtained maps were classified by Support Vector Machine (SVM) and maximum likelihood (ML). Among the classification methods, SVM has a higher ability to classify than ML and identified formations with higher accuracy in the region. Finally, tree decision making system was used to improve the classification of images. The geology of the area was extracted in four classes focusing on calcareous formations. The map was compared with the geological map prepared by the surveying organization and the following results were obtained: Kappa coefficient 0.83, Accuracy of Ku and Jd Formation (calcareous formations) with 99.2% accuracy, Shemshak Formation (Js) with 80.2% accuracy, Lalun Formation (Cl) with 81.2% accuracy and Alloviume (Q) with 78% accuracy were identified. Subsequently, lineaments area were extracted using integration of Landsat 8 and Sentinel 1 radar remote sensing data based on semiautomatic methods. Based on the results, the lineaments were in good agreement with the faults in terms of orientation and numbers at different lengths. Also, the densities of the lineaments extracted in different formations of the geological map of the region had 99% compliance with the densities of faults in the formations. Therefore, by combining band6 of Landsat8, VV and VH polarization Sentinel1, the area lineaments can be extracted with high accuracy. Other thematic layers were extracted by using remote sensing and GIS Techniques using 30 m SRTM. It was also observed that the groundwater potential map is mainly controlled by precipitation, lithology, and lineament density factors.

    Keywords: Groundwater Potential Mapping, GIS, Remote Sensing, AHP, SVM, ML
  • M. Mohammadi, F. Hosseinali* Pages 183-197

    Universities as the places of training the experts play an essential role in social, economic and cultural structure of the nations. The quality of education and the educational space are two major effective factors on the quality of training the students. Since the educational places are of the most important land-uses in the cities, the compatibility of them with other surrounded land-uses is vitally important in urban planning. In many cases the adjacency of educational places with incompatible land-uses such as military and industrial or locating in polluted areas or avoiding from necessary utilities have caused falling the learning abilities of the their students. In this research the desirability of the location of six universities of Tehran namely: K.N.Toosi university of technology, Iran university of science and Technology, Amirkabir university of technology, university of Tehran school of engineering, Shahid Rajaee University and Allameh Tabatabachr('39')i university has been evaluated and compared using the spatial analyzes in Geospatial Information System. To find the major criteria (factors), many students in those universities were asked. Based on the responses, the criteria were classified into two categories of physical and environmental. Satellite images, maps and census data were used to produce criteria maps. Evaluating and comprising between the criteria were done based on the idea of more than 500 students. Each of considered factors is extracted from a corresponding factor map and this is the point that highlights the role of GIS. For environmental factor three maps were produced and then combined. Greenness map in this study is a map showing the NDVI index of Tehran. To produce this map, image of Landsat 7 satellite, ETM+ sensor, band 3 and 4 was used as the input. ENVI software was used for this process and NDVI obtained within a thousand meters radius around each university. For the other map processes in this study ArcGIS 10.3 software was used. Next, three factor maps were combined using Index overlay method with the equal weights and environmental index map was created. Air pollution is at the highest level in winter. Noise pollution is significantly higher in the mornings. Real greenness is better observable in summer when all the trees have leaves. Different time of gathering will not affect the results because the relative conditions of the target universities are fairly constant during the process of collecting data. To prepare physical index map, accessibility and compatibility of surrounded land-uses must be determined.  Accessibility was extracted from a 1:2000 map of Tehran using OD-cost matrix in ArcGIS software. To generate compatibility, land-uses around the target universities were determined and their compatibility with university land-use was compared pair-wisely. The compatibilities expressed in five levels. Levels of compatibility have then been assigned different weight based on previous studies. Once the values of factors obtained, they were be combined to get the final index. However, the weights of each criterion must be assigned. AHP as a multicriteria decision making method and ratio estimation method were used for this task. At last, the final index for desirability of the location of target universities achieved by combining sub-criteria. The results of this research revealed that the location of Amirkabir University achieved the more desirability of location. After that K.N.Toosi, university of science and technology, university of Tehran school of engineering, Shahid Rajaee university and finally Allameh Tabatabachr('39')I stand on the next ranks.

    Keywords: Location, Compatibility, Accessibility, Environment, University, Tehran
  • O. Asgari, N. Neysani Samany*, S. Atarchi Pages 199-212

    Land use change monitoring is one of the main concerns of managers and urban planners due to human activities and unbalanced physical development in urban areas. In this paper, a combination of remote sensing data and volunteered geographic information was used to assess the quality of volunteered geographic information on land use and land cover changes monitoring. For this purpose, the ORBVIEW-3 satellite imagery for 2005, the IRS satellite for 2008, 2010, and 2015 and the Google Earth imagery from 2011 to 2019 have been used as the reference database. One of the issues discussed in the field of validating volunteered geographic information in monitoring land-use changes is related to the quality of this information. Various indices have been proposed for evaluating the quality of VGI parameters in the field of validation of land use changes monitoring, includes data completeness, spatial accuracy, and shape accuracy. This paper aimed to evaluate the quality of volunteered geographic information designed for land use changes monitoring and compare the results with satellite images as reference data. In other words, this study seeks to compare the results of volunteered geographic information and satellite imagery to show the accuracy of VGI . Actually, the use of local knowledge of individuals in the urban planning process and the importance of timely information for better management and decision-making in the face of urban progresses such as urban sprawl has led to attention and understanding the importance of VGI in land use change. To validate the VGI, first satellite images were obtained and clustered using unsupervised learning. The use of satellite imagery due to the repeatability with wide and multi-source view of an area increases the credibility and confidence of VGI quality validation. The VGI collection has been carried out over a web-based GIS which provided a facility for users to register personal information, parcel land use and draw polygons per relevant land use. Finally, volunteered geographic information quality was evaluated. In the first step of validation process, data completeness was assessed. According to the results, the value of VGI completeness has been changed during assessment period, as  by moving away from the present, the accuracy has been also reduced, so that in 2018, 72.7 percent of the volunteered data were completely overlapping with the reference data, but in 2007 this compatibility decreased to 25 percent. In the next step, the spatial accuracy of the data was calculated. The central distance method was used for evaluating this parameter. The results of the distances between the polygons centers of the volunteer data and the polygons centers of the reference data show that the maximum and minimum distance are 14.37 m and 0.09 m, respectively. In the last stage, the shape accuracy of the volunteered data was examined. Due to the standard deviation of 0.61, it can be concluded that the two databases differ significantly.

    Keywords: Volunteered Geographic Information, VGI Quality Components, Satellite Imagery, Land-use Changes
  • I. Shahmardani, R. Aliabbaspour, A. R. Chehreghan* Pages 213-226
    Introduction

    With the increasing use of spatial data in daily life, the production of this data from diverse information sources with different precision and scales has grown widely. Generating new data requires a great deal of time and money. Therefore, one solution is to reduce costs is to update the old data at different scales using new data (produced on a similar scale). One approach to updating data is to use the updated large-scale dataset as reference data to update small-scale datasets; in this way, the modified features are identified in the two datasets and then updated by modifying the changes to fit the small-scale dataset. In terms of the type of the updated feature, map updating issues in the vector dataset are divided into three categories: pointwise, linear, and polygon. One of the most important features of the class of polygonal features in urban environments are the buildings that are vital in urban maps and their updating process in urban applications has a high priority. In this research, an attempt has been made to study the issue of updating polygonal features from different perspectives by a careful and comprehensive examination. These perspectives include spatial clustering methods, pattern extraction, and updating methods. 
    Spatial clustering methods are classified into five

    methods

    natural principles, partition-based, graph-based, Region Merging, and density-based approaches. Each clustering method have been used in different studies according to Gestalt criteria (proximity, similarity, and continuity). In pattern extraction, different types of patterns have been studied in various studies while the linear pattern extraction as a sample has been comprehensively examined in this study.  In the updating methods, three updating approaches including Propagating, Local, and Constraint-based are examined. In the Propagation updating approach, only large-scale data are updated, then these updates can be propagated into small-scale data. This update is especially used for the MRDB spatial database by propagating updates at various scales. Local updating consists of three steps: 1) Change detection between the recently updated large-scale dataset and the old small-scale dataset. 2) Integrating the discovered changes into the small-scale dataset (by quantifying and formulating these changes). 3) Ensuring that the consistency is maintained. In Constraint-based updating approach which demonstrates the necessities of this research, first, by grouping the buildings, useful information such as the area of ​​the buildings, the average and the standard deviation of the separation distance between the buildings is obtained. Then, with the appropriate operators, Constraint-based generalization is performed to update the maps.  There are various criteria for evaluating the updating methods, while the Precision and Recall criteria have been used to evaluate the effectiveness of these problems. Precision criterion examines the ratio of the number of correctly matched features to the total number of features that that have been matched correctly or incorrectly. Recall criterion evaluates the ratio of correctly matched features to the total features that have been matched correctly or not matched. In other words, in the Precision criterion, the number of features that are incorrectly matched and in the Recall criterion, the number of features that are not matched, are effective in comparing the two criteria. The categorization mentioned in each perspective and the advantages and disadvantages of different methods are also presented in this research.

    Keywords: Vector Dataset, Updating, Building Polygon Features
  • M. Rezaei*, A. R. Vafaei, R. Rasti Pages 227-236

    Nowadays, given the widespread use of global projection systems such as the UTM projection system in surveying projects relying on elliptic referents, finding a suitable composite scale factor for each project to implement construction projects using mapping equipment such as devices Total station is necessary. Unfortunately, today the method of calculating and assigning average composite scale factor in survying projects is not fully scientifically performed, and usually inappropriate composite scale factors are calculated and applied, causing unacceptable errors in the project. In this research, an executive project was investigated and a number of scaling factors were calculated for it. The results showed that the method that calculated the scale factor by considering the whole project scope in three dimensions yielded the most accurate case. Evaluation of the accuracy of work showed that the highest error was related to the average scale factor in a thousand meters length, 0.048 m to the east and west end of the project and 0.002 m to the center of the project. It was also found that if the permissible error of the mean scale factor is 5 mm, about 1266 m can be survey from the project center east and west with the same mean scale factor and if more than That range of surveying activity should be done, either more error must be accepted or another average scale factor calculated for the new range.

    Keywords: Surveying Projects, Combine Scale Factor, UTM Projection System, Optimization