فهرست مطالب

نشریه علوم و فنون نقشه برداری
سال هشتم شماره 2 (پیاپی 30، پاییز 1397)

  • تاریخ انتشار: 1397/07/19
  • تعداد عناوین: 16
|
  • مریم صالحی ، یاسر مقصودی، علی محمدزاده* صفحات 1-11
    افزایش تولید محصولات کشاورزی با توجه به شرایط آب و هوایی، محدودیت منابع آبی و نیز محدودیت زمین های دارای پتانسیل تولید، همچنین محدودیت های مالی در کشور با مشکلات فراوانی روبرو می باشد. بنابراین برای تامین مواد غذایی باید بهره وری از عوامل تولید به ویژه آب و خاک افزایش و ضایعات کشاورزی تا حد امکان کاهش یابد. این امر نیازمند پایش منظم محصولات می باشد. سنجش از دور یکی از مهمترین تکنیک های مورد استفاده در پایش محصولات کشاورزی محسوب می شود. امروزه توسعه روش های پایش در مقیاس وسیع، مساله ای مهم برای اجرای مدیریتی معقول و منطقی در ارتباط با منابع طبیعی زمین بویژه برای کشورهای پرجمعیت که متکی به محصولات کشاورزی هستند، به شمار می رود. هدف از این تحقیق پایش و بازیابی برخی پارامتر های محصولات کشاورزی با استفاده از تصاویر پلاریمتریک اینترفرومتریک سار (PolInSAR) می باشد. روش مورد استفاده برمبنای ویژگی هایی حاصل از مدل تجزیه پیشنهادی و روش های رگرسیون مبنا می باشد. در مدل پیشنهادی ابتدا پایه پلاریزاسیون بهینه که در آن همبستگی بین دو تصویر پایه و پیرو بیشینه است محاسبه می شود، سپس در آن پایه تجزیه مقدار ویژه بر روی ماتریس کواریانس پلاریمتریک اینترفرومتریک اعمال شده، و با بدست آوردن مقادیر و بردارهای ویژه ویژگی هایی همانند انتروپی و آلفا محاسبه می شود. برخی از این ویژگی ها وابستگی خطی بالایی با ارتفاع، زیست توده و فنولوژی محصولات دارند و برخی نیز اطلاعات مفیدی برای بهبود عملکرد بازیابی فراهم می آورند. نهایتا بازیابی پارامترهای محصول براساس 13 ویژگی PolInSAR و دو روش شبکه عصبی مصنوعی و رگرسیون بردار پشتیبان انجام می شود. نتایج پیاده سازی بر روی دو محصول گندم و جو با استفاده از تصاویر سری زمانی سنجنده E-SAR از منطقه DEMMIN در آلمان نشان دهنده عملکرد مناسب روش پیشنهادی می باشد. هر دو روش مورد استفاده به منظور بازیابی نهایی شامل شبکه عصبی و رگرسیون بردار پشتیبان برآوردهای خوبی از پارامترهای محصول داشته و می توانند برای پایش محصولات مورد استفاده قرار گیرند. به عنوان نمونه نتایج نشانگر جذر میانگین مربعات خطا (RMSE) 21. /، 59. / و 21. / با استفاده از شبکه عصبی و جذر میانگین مربعات خطا (RMSE) 21. /، 52. / و 46. / با استفاده از رگرسیون بردار پشتیبان به ترتیب در بازیابی ارتفاع، زیست توده و فنولوژی محصول گندم می باشد.
    کلیدواژگان: پایش محصول، بازیابی پارامتر، داده سری زمانی، پلاریمتریک اینترفرومتریک، مقدار ویژه
  • عبدالرضا صفری، سعید همایونی، ایمان خسروی * صفحات 13-34
    تصاویر نوری و راداری با دریچه ی مصنوعی تمام قطبیده (PolSAR) ، منابع ارزشمندی برای طبقه بندی زمین های کشاورزی است. ویژگی های مستخرج از تصاویر نوری حاوی اطلاعاتی در مورد امضای بازتابی محصولات مختلف است. در مقابل، یک تصویر PolSAR فراهم کننده ی اطلاعاتی در مورد خصوصیات ساختاری و سازوکارهای پراکنش محصولات است. ترکیب این دو منبع قادر به ایجاد یک مجموعه داده ی مکمل با تعداد قابل توجهی از ویژگی های زمانی طیفی، بافت و قطبیده برای طبقه بندی زمین های کشاورزی است. با این حال، طبقه بندی زمین های کشاورزی ممکن است با دو چالش افزایش تصاعدی ابعاد داده و مساله ی داده های نامتوازن مواجه شود. در دهه ی گذشته، سیستم های طبقه بندی کننده ی چندگانه ی (MCS) درختی به ویژه روش مشهور جنگل تصادفی (RF) کارایی بالایی از خود برای حل چالش اول نشان داده است. با این حال، این روش ها به طور ذاتی برای حل مساله ی داده های نامتوازن طراحی نشده است. به تازگی دو روش نوین جایگزین RF به نام های جنگل پالایشی متوازن شده (BFF) و جنگل پالایشی هزینه حساس (CFF) برای طبقه بندی تصاویر راداری پیشنهاد شده است که قابلیت بالایی در حل همزمان دو چالش از خود نشان داده است. این پژوهش نیز قصد دارد تا از این دو روش نوین برای طبقه بندی زمین های کشاورزی از ترکیب تصاویر نوری و راداری استفاده کرده و کارایی و عملکرد آن ها را با روش های MCS درختی کلاسیک از جمله روش RF در مواجه با حل این دو چالش بررسی و مقایسه کند. نتایج نشان از افزایش دقت کلی تا حدود 10% بیشتر روش های نوین درختی نسبت به روش های کلاسیک و سرعت 6 برابر این روش ها نسبت به روش RF داشت. ضمن آن که در شناسایی محصولات کشاورزی، دقتی حدود 20% بیشتر از روش RF کسب کرد.
    کلیدواژگان: سیستم طبقه بندی کننده ی چندگانه، درخت تصمیم، طبقه بندی زمین های کشاورزی، تصاویر نوری، تصاویر راداری
  • مینا حمیدی* ، حمید عبادی، عباس کیانی صفحات 35-52
    شناسایی ساختمان از تصاویر سنجش ازدور در بروزرسانی نقشه ها، نظارت شهری و طیف وسیعی از کاربردها اهمیت زیادی دارد. تصاویر با قدرت تفکیک مکانی بالا یک منبع داده مهم، برای استخراج اطلاعات مکانی است. این تصاویر امکانات فوق العاده ای برای استخراج عوارض ازجمله ساختمان و تجزیه وتحلیل های مکانی در مناطق شهری فراهم کرده اند؛ اما این کار معمولا به دلیل پیچیدگی ها و ناهمگونی های این داده ها مانند تغییرات درون کلاسی زیاد و تغییرات بین کلاسی کم، با دشواری هایی همراه است. باوجود تلاش های زیادی که برای توسعه روش های اتوماتیک شناسایی ساختمان از این تصاویر طی دهه های گذشته انجام شده است؛ روش های با کارایی بالا به دلیل عدم قطعیت هایی چون انتخاب ویژگی های بهینه هنوز در دسترس نیستند و از سویی به دلیل افزایش قدرت تفکیک داده های مورداستفاده، زمان پردازش نیز بالا می باشد. ازاین رو، بهبود صحت شناسایی اتوماتیک ساختمان از داده های سنجش ازدور و درعین حال زمان پردازش کمتر انگیزه اصلی تحقیق حاضر است. روش پیشنهادی این مقاله، به این صورت است که ابتدا با بکارگیری ساختارهای بافتی شبه عمیق، ویژگی های سطح بالایی را جهت آشکارسازی بهینه ساختمان استخراج می نماید. سپس بر اساس ادغام الگوریتم آدابوست توسعه یافته با روش ماشین بردار پشتیبان بهینه سازی شده با ازدحام ذرات، ویژگی های بهینه را انتخاب کرده و به طبقه بندی باینری عارضه ساختمان و زمینه می پردازد. روش پیشنهادی بر روی مجموعه داده استاندارد واهینگن اجرا و سپس نتایج حاصل از آن با روش های کارآمد یادگیری ماشین مقایسه شده است. همچنین مقایسه ای بین روش مجموعه ویژگی شبه عمیق با روش متداول ویژگی های بافت GLCM صورت گرفته است. نتایج تجربی نشان دادند که به طور میانگین بیشترین صحت کلی و ضریب کاپا حاصل از روش پیشنهادی به ترتیب، 93. 25 و 83. 06 درصد می باشد و نسبت به روش های مرسوم افزایش دقت 7. 27 درصد در ضریب کاپا دارا می باشد که نشان از اعتبار و توانمندی روش پیشنهادی بوده بعلاوه اینکه زمان محاسبات را حدودا به نصف کاهش می دهد.
    کلیدواژگان: شناسایی ساختمان، سنجش ازدور، انتخاب ویژگی، طبقه بندی
  • داود طالبی *، محمد کریمی صفحات 53-68
    با توجه به اهمیت جنرالیزاسیون در ساخت پایگاه داده های چندمقیاسی از یک طرف و امکان تولید خروجی های مختلف از طریق الگوریتم ها و عملگرهای مختلف جنرالیزاسیون از طرف دیگر، انتخاب بهترین و شبیه ترین خروجی تولید شده ضروری می باشد. هدف این تحقیق، ارائه یک رویکرد مناسب جهت محاسبه میزان تشابه مکانی بین دو شبکه راه اصلی و جنرالیزاسیون شده با استفاده از تناظریابی و روابط تشابه مکانی می باشد. برای رسیدن به این مهم یک رویکرد تناظریابی با استفاده از پنج معیار جهت، فاصله هاسدروف میانه بر مبنای طول، مساحت مشترک حریم، طول و تابع تانژانت پیشنهاد شده است. در این تحقیق همچنین جهت محاسبه میزان تشابه مکانی بین دو شبکه راه تابعی از ده معیار طول، اندازه، اعوجاج، پیچیدگی، مساحت شی خطی، انحنایی، تعداد پاره خط ها، تابع تانژانت، میانگین زاویه داری و تغییر جهت تعریف شده است. در این تحقیق از دو شبکه راه 1:25000 و 1:50000 استفاده شده و جهت انجام جنرالیزاسیون از الگوریتم داگلاس- پوکر استفاده شده است. میزان دقت تناظریابی با رویکرد پیشنهادی بر اساس مقدار F- Score برابر 98. 361 درصد بدست آمد. نتایج نشان می دهد که شبکه راه تولید شده حاصل از جنرالیزاسیون شبکه راه 1:25000 با الگوریتم داگلاس- پوکر و تلورانس 3 متر بیشترین میزان تشابه مکانی را به نقشه 1:50000 دارا می باشد.
    کلیدواژگان: روابط تشابه مکانی، تناظریابی، جنرالیزاسیون، شبکه راه
  • مریم تیموری *، مهدی مختارزاده، یزدان عامریان صفحات 69-82
    استفاده از داده های چند منبعی، به ویژه استفاده ترکیبی از تصاویر اپتیکی و راداری، روشی موفق در بهبود سطح تفسیرپذیری داده های سنجش ازدور است. در این راستا، تولید و انتخاب ویژگی های مناسب از این داده ها، چالشی جدی در حوزه تحقیقات اخیر می باشد. در تحقیق حاضر، با هدف کاهش زمان دستیابی به ویژگی های بهینه، روشی جدید جهت انتخاب ویژگی از تصاویر تلفیقی اپتیکی و راداری ارائه شده است. در روش پیشنهادی، با ترکیب روش حداقل افزونگی-حداکثر ارتباط و الگوریتم ژنتیک، ویژگی های بهینه انتخاب می شوند. در این راستا، ابتدا ویژگی های مختلفی از تصویر استخراج شده و از طریق دو روش الگوریتم ژنتیک و روش حداقل افزونگی-حداکثر ارتباط- ژنتیک ویژگی های بهینه انتخاب می شوند. پس از آن تصویر توسط SVM طبقه بندی می شود. در نهایت نتایج نشان می دهد که دقت روش پیشنهادی با حصول دقت کلی 97. 25، در حدود 3 درصد بیشتر از دقت روش SVM با استفاده از تمام ویژگی ها است. همچنین دقت کلی روش پیشنهادی و روش ژنتیک نزدیک به یکدیگر می باشد. درحالی که سرعت عملکرد روش پیشنهادی تقریبا 2. 5 برابر سرعت عملکرد انتخاب ویژگی توسط روش ژنتیک است. بنابراین نتایج حاصل موید کارایی روش پیشنهادی است.
    کلیدواژگان: طبقه بندی تصویر، تلفیق، انتخاب ویژگی، MRMR-GA
  • امین صداقت ، نازیلا محمدی* صفحات 83-97
    هم مرجع سازی تصویر یک فرآیند اساسی در پردازش تصویر بوده و هدف از آن، تعیین دقیق ترین مطابقت میان دو یا چند تصویر از یک منظره ی یکسان است. مدل های تبدیل دو بعدی نقش اساسی در هم مرجع سازی تصاویر ایفا می کنند. در این تحقیق قابلیت انواع مختلف از مدل های تبدیل دو بعدی شامل 9 تبدیل متشابه، پروژکتیو، چندجمله ای از درجات 1 تا 4، مدل تبدیل قطعه ای خطی، Multiquaderic (MQ) و Pointwise (PW) در هم مرجع سازی تصاویر استریو ماهواره ای مورد ارزیابی قرار می گیرد. به منظور استخراج کارآمد نقاط گرهی در تصاویر، از یک روش ترکیبی بر مبنای عوارض نقطه ای FAST، توصیفگر SIFT (Scale Invariant Feature Transform) و روش تناظریابی کمترین مربعات استفاده شده است. به منظور ارزیابی اثر تعداد و توزیع مکانی نقاط گرهی، فرآیند ارزیابی در چهار حالت مختلف با تعداد و توزیع متفاوت از نقاط کنترل انجام شده است. برای ارزیابی از دو جفت تصویر ماهواره ای بزرگ مقیاس مربوط به سنجنده های ZY3 و IKONOS استفاده شده است. نتایج ارزیابی بیانگر این است که مدل های تبدیل سراسری نظیر پروژکتیو و چندجمله ای ها دقت مناسبی را برای هم مرجع سازی تصاویر ماهواره ای ارائه نمی دهند. در مقابل در صورتی که تعداد و توزیع نقاط کنترل مناسب باشد، مدل های تبدیل انطباقی نظیر MQ و PW دارای دقت مناسبی خواهند بود. به طور کلی بالاترین دقت مربوط به مدل تبدیل MQ است به طوری که مقدار RMSE نقاط چک با استفاده از این مدل برای جفت تصویر ZY3 و IKONOS به ترتیب برابر 2 و 1. 9 پیکسل است.
    کلیدواژگان: تبدیلات 2 بعدی، عوارض FAST، توزیع نقاط کنترل، هم مرجع سازی تصویر
  • مسعود بابادی* ، مهران ستاری صفحات 99-113
    در سال های اخیر، سیستم های جاروب کننده ی لیزری (لایدار) تبدیل به یکی از قدرتمندترین ابزار به منظور اندازه گیری های مربوط به سطح زمین و مدل سازی آن تبدیل شده اند. با ظهور سیستم های ماهواره ای و هوایی لایدار، امکان استخراج اطلاعات و پارامترهای مرتبط با ساختار عمودی عوارض، به خصوص درختان، فراهم شد، در حالی که قبل تر، این کار بوسیله ی داده های غیرفعال سنجش از دوری مانند تصاویر امکان پذیر نبود. ابر نقاط حاصل از این سنجنده ها، اطلاعات دقیقی را از ویژگی های هندسی و فیزیکی عوارض موجود در مسیر حرکت لیزر و توزیع عمودی آنها ارائه می کند. از کاربرد های مربوط به این سیستم ها می توان به کاربرد آنها در جنگل داری و اندازه گیری پارامترهای جنگل، بدست آوردن مدل رقومی زمین با دقت ارتفاعی بالا، تعیین عمق دریا ها و تعیین ضخامت یخ های قطبی، مدل سازی ساختمان های شهری، شناسایی پل ها و خطوط برق، نقشه برداری خطوط ساحلی و معادن روباز و طبقه بندی پوشش های زمینی اشاره کرد. به دلیل اینکه خروجی سنجنده های لایدار اولیه (سیستم های لایدار گسسته) صرفا ابر نقطه بوده است، محدودیت هایی در برخی از کاربرد های آن وجود دارند. برای مثال تشخیص گونه ها ی درختی و استخراج درختان منفرد در جنگل های متراکم با استفاده از این داده ها بسیار مشکل و در بسیاری از موارد امکان پذیر نبوده است. از سال 2004، سیستم های تجاری جاروب کننده ی لیزری هوایی جدیدی با نام سیستم های لایدار موج پیوسته ظاهر شد. با امکان ثبت اطلاعات موج پیوسته ی بازگشتی به طور کامل توسط جاروب کننده های لایدار در سال های اخیر، ضمن برطرف کردن بخشی از نقاط ضعف سیستم های گسسته ی لایدار مانند تراکم پایین نقاط، با در اختیار گذاشتن خصوصیات موج برگشتی نظیر دامنه و شدت قله های ثبت شده، امکان تفکیک و استخراج تک درختان در جنگل های متراکم، طبقه بندی گونه های مختلف درختی و طبقه بندی عوارض با دقت بالاتری فراهم شد. یکی از چالش های مربوط به این داده ها، نحوه ی تجزیه امواج بازگشتی و استخراج ابر نقاط و اطلاعات اضافی مربوط به این داده ها است. اگرچه در ایران تحقیقات به نسبت خوبی بر روی استفاده از داده های لایدار گسسته و کاربرد آنها در مدیریت جنگل و مدل سازی ساختمان های شهری صورت گرفته است، ولی به جرات می توان گفت هنوز داده های لایدار موج پیوسته و نحوه ی پردازش و تجزیه ی آنها یک موضوع ناشناخته است که از مهمترین دلایل آن میتوان به در دسترس نبودن این داده ها، عدم شناخت کافی به ماهیت این نوع داده ها، کمبود نرم افزار های مربوط به پردازش آن ها و در اختیار قرار ندادن روش های پردازش این داده ها توسط شرکت های سازنده ی آن اشاره کرد. این تحقیق بر آن است تا نحوه ی استخراج اطلاعات از داده های خام موج پیوسته ی لایدار هوابرد را به صورت ع ملی نشان دهد و نتایج حاصل از استخراج اطلاعات از داده های موج پیوسته را با ابر نقطه ی حاصل از سیستم لایدار مقایسه کند.
    کلیدواژگان: سیستم های لایدار موج پیوسته، تجزیه ی امواج بازگشتی، تولید ابر نقاط، تولید ویژگی های لایدار
  • سید رضا صوف باف، محمودرضا صاحبی* ، برات مجردی صفحات 115-132
    در این تحقیق یک روش نوین جهت آشکارسازی ناهنجاری ها در تصاویر ابرطیفی بر پایه کدگذاری تنک و با استفاده از پنجره های متحرک محلی پیشنهاد شده است. مهمترین نقطه قوت این روش فراهم نمودن شرایط و امکان قضاوت بهتر در خصوص احتمال وقوع ناهنجاری در داده های ابرطیفی با بکارگیری روشی با قابلیت تجمیع و هم افزایی اطلاعات هر پیکسل تصویری طی عبور پنجره متحرک از آن می باشد. در این روش با عبور یک پنجره ی متحرک، هر پیکسل موقعیت های مکانی مختلفی را نسبت به همسایگان مکانی خود تجربه نموده و در هر یک از موقعیت های مذکور یک دیکشنری محلی که مبین داده های پس زمینه می باشد، بصورت بهینه با استفاده از الگوریتمK-SVD تشکیل شده و بازسازی داده های موجود به روش تخمین تنک در پنجره متحرک با بگارگیری الگوریتم SOMP صورت می پذیرد. بنابراین در هر موقعیت پنجره برای هر پیکسل خطای بازسازی با روش کدگذاری تنک مورد محاسبه قرار می گیرد. با توجه به استفاده از دیکشنری پس زمینه در بازسازی کلیه داده ها، هر گاه احتمال وقوع ناهنجاری در پیکسل مورد بررسی بیشتر باشد، مقدار خطای بازسازی آن نیز بزرگتر خواهد بود. لذا با بررسی این خطا در موقعیت های مختلف هر پیکسل نسبت به پنجره متحرک، می توان به مجموعه ای از خطاهای بازسازی برای آن پیکسل دست یافت که در نهایت واریانس آنها به عنوان معیار آشکارسازی ناهنجاری در نظر گرفته می شود. مقایسه نتایج آشکارسازی با روش پیشنهادی در این تحقیق با الگوریتم هایی مانند GRX, LRX, CRD وBJSR با بکارگیری چهار نوع داده ابرطیفی اعم از واقعی و شبیه سازی شده، حاکی از کارایی بهتر آشکارساز پیشنهادی به میزان متوسط حدود 9 درصد نسبت به آنها می باشد.
    کلیدواژگان: تصاویر ابرطیفی، آشکارسازی ناهنجاری، کدگذاری تنک، پنجره متحرک، KSVD
  • برات مجردی، علی اکبر آب کار، موسی ساعی جمال آباد * صفحات 133-150
    برآورد سطح زیر کشت گندم و پراکنش آن در کشور در زمان کشت و قبل از برداشت محصول، می تواند در ارزش گذاری، ذخیره سازی و همچنین برنامه ریزی برای واردات و صادرات نقشی اساسی ایفا کند. روش های معمول سنجش از دور با استفاده از تک تصویر به علت شباهت طیفی گندم و سایر محصولات کشاورزی نظیر جو و یونجه که معمولا همزمان با کشت گندم رشد می کنند، در جداسازی گندم از این محصولات با مشکل مواجه می شوند. لذا بکارگیری تصاویر چندزمانه در طول رشد محصول باعث بهبود صحت طبقه بندی گندم می گردد. الگوریتم جنگل تصادفی، یکی از ابزارهای مناسب جهت غلبه بر مشکلات طبقه بندی تصاویر سری زمانی می باشد. در این تحقیق 10 تصویر از منطقه (مرودشت-استان فارس) که دارای ابرناکی کمتر از 20 درصد بودند انتخاب گردید. در مرحله بعد، با تولید ویژگی های جدید از جمله گرادیان طیفی باند ها و شاخص های گیاهی تصاویر چندزمانی و اختلاف آنها و انتخاب ویژگی های بهینه، عملکرد مدل بهبود یافت. با تولید این ویژگی ها به طور میانگین دقت کلی 4/9 درصد و ضریب کاپا 2/5 درصد افزایش یافت. علاوه بر آن قدرت جداسازی گندم و جو (دقت تولید کننده جو) توسط روش پیشنهادی به طور میانگین تا 5/14 درصد افزایش یافته و در حالت استفاده از تنها سه تصویر منتخب، به 5/92 درصد می رسد. در پایان آنالیز اهمیت متغیر انجام شد و مشاهده گردید، اختلاف شاخص های گیاهی و گرادیان طیفی باندهای تصاویر زمان های مختلف، مهمترین ویژگی های تولید و معرفی شده به مدل جهت بهبود نتایج می باشند.
    کلیدواژگان: طبقه بندی گندم، جنگل تصادفی، گرادیان طیفی، سری زمانی تصاویر ماهواره ای
  • سارا بهشتی فر *، عباس علی محمدی صفحات 151-161
    توجه به سازگاری بین کاربری های شهری، یکی از موارد مهم در بهینه سازی مکانی آنها بشمار می آید. رایجترین روش کاهش اثرات منفی کاربری های ناسازگار بر روی یکدیگر، حفظ فاصله ای معین بین آنها می باشد. لزوم بررسی حجم بالایی از اطلاعات در بهینه سازی مکانی کاربری ها و محدودیت های روش های دقیق از یک سو و وجود اهداف و معیارهای متعدد در این مسائل از سوی دیگر، توجه محققان را به استفاده از روش های فرا ابتکاری چندهدفه در حل آنها معطوف ساخته است. در این روش ها امکان مواجهه با انواع قیود نیز وجود دارد.
    در این پژوهش، روشی ترکیبی برای مواجهه با قیود فاصله در مساله بهینه سازی مکانی چندین کاربری پیشنهاد شده است. برای این منظور از نوعی الگوریتم ژنتیک چندهدفه برای بهینه سازی توابع هدف شامل بیشینه سازی تناسب سایت ها و بیشینه سازی سازگاری کاربری ها و از روش شبیه سازی تبرید برای ترمیم پاسخ ها به منظور رعایت قیود استفاده گردیده است. قیود مذکور برای حفظ حداقل فاصله مجاز بین انواع کاربری ها وارد مساله بهینه سازی شده اند.
    نتایج تحقیق نشان می دهد که بکارگیری روش پیشنهادی با ترمیم و بهبود پاسخ ها می تواند تا حد زیادی در حفظ فاصله معین بین کاربری ها و در نتیجه کاهش ناسازگاری بین آنها در چیدمان های مختلف موثر باشد. در این روش برای هر یک از پاسخ های غیر مجاز، چندین جایگزین تولید می شود که می توان از میان آنها نزدیکترین پاسخ مجاز به پاسخ اصلی با بهترین مقادیر توابع هدف را انتخاب نمود.
    کلیدواژگان: سازگاری کاربری ها، بهینه سازی چند هدفه مقید، شبیه سازی تبرید، الگوریتم ژنتیک
  • ارسلان قربانیان* ، علی محمدزاده صفحات 163-171

    وجود ذرات معلق کوچکتر از 10 میکرون تاثیرات مخرب جدی بر روی سلامت افراد جامعه خواهد داشت. بنابراین داشتن اطلاعات در مورد میزان غلظت و نحوه پراکندگی آنها در شهر از اهمیت بسزایی برخوردار می باشد. امروزه از ایستگاه های آلودگی سنجی در محدوده شهر برای اندازه گیری غلطت آلاینده ها استفاده می شود. اگرچه این ایستگاه ها مقادیر آلودگی را با دقت بالایی اندازه گیری می کنند اما به دلیل محدودیت تعداد آنها از لحاظ مکانی پیوستگی ندارند. برای حل این مشکل می توان از تصاویر سنجش از دوری برای برآورد میزان غلظت ذرات و تولید نقشه های پراکندگی آلودگی استفاده نمود. در این تحقیق به جای استفاده از داده های عمق اپتیکی که به طور غالب در بررسی و مطالعه آلودگی توسط محققان مورد استفاده قرار می گیرد، از تصاویر بازتابندگی ظاهری سهم هواویز بدست آمده از تصاویر سنجنده مادیس استفاده می کنیم. مزیت استفاده از تصاویر بازتابندگی ظاهری سهم هواویز نسبت به داده های عمق اپتیکی پیوستگی مکانی و قدرت تفکیک مکانی بهتر آنها می باشد. تولید نقشه روزانه آلودگی برای 8 روز در سال 1396 در شهر تهران با استفاده از برقراری رگرسیون بین مقادیر بازتابندگی ظاهری سهم هواویز و مقادیر اندازه گیری شده غلظت ذرات معلق کوچکتر از 10 میکرون انجام شده است. بررسی عملکرد رگرسوین های خطی، نمایی، لگاریتمی و نمایی از جمله اهداف این تحقیق می باشد. میانگین مجذور همبستگی رگرسیون های خطی، نمایی، لگاریتمی و توانی به ترتیب برابر با 5912/0، 5826/0، 5808/0، 5782/0 بدست آمده است. براساس نتایج بدست آمده رگرسیون نمایی بهترین عملکرد را برای تولید نقشه پراکندگی آلودگی داشته است.
    کلیدواژگان: بازتابندگی ظاهری سهم هواویز، PM10، رگرسیون غیرخطی، نقشه پراکندگی آلودگی، سنجنده مادیس
  • نوید هوشنگی، علی اصغر آل شیخ* صفحات 173-188
    وجود روشی مناسب برای تخصیص صحیح وظایف نقش مهمی در بهبود کارایی و تصمیم گیری در عملیات با محدوده ی بزرگ دارد. هدف مقاله ی حاضر ارائه ی رویکردی برای تخصیص وظایف بین گروهی از عامل ها در محیط های بحران زده با مدنظر قرار دادن استراتژی های مکانی مناسب می باشد. نوآوری اصلی ارائه ی رویکردی مکانی است که اگر در محیط بحران زده تخصیص اولیه ی وظایف بنابه اختلال موجود در محیط با مشکلی مواجه شود، در تخصیص مجدد یا تخصیص های آینده شرایط بهتری وجود داشته باشد. رویکرد ارائه شده در طول 5 مرحله اجرا شده و آمادگی برخورد با شرایط عدم اجرای وظایف را فراهم می کند. ترتیب دهی وظایف موجود، یافتن عامل هماهنگ کننده، برگزاری مناقصه، اعمال استراتژی های تخصیص، اجرا و روبرو شدن با اختلالات فرآیند اجرا پنج مرحله روش پیشنهادی می باشد. در مرحله چهارم، 4 استراتژی به ترتیب تخصیص وظایف با اولویت بالاتر، تخصیص وظایف به تمامی عامل ها، تخصیص با نگه داشتن عامل های استراتژیک و تخصیص با ایجاد بهترین تراکم در محیط، به روش پروتکل قرارداد شبکه اعمال شد.
    مقیاس پذیری روش پیشنهادی در قالب 9 سناریو (50 ، 100 و 200 عامل با 500، 1000 و 2000 وظیفه) در مقایسه با روش پروتکل قرارداد شبکه سنتی [1] (CNP) ارزیابی شد. رویکرد پیشنهادی به طور متوسط از نظر معیار زمان عملیات امداد و نجات نسبت به CNP، دارای حداقل بهبود 12% ، حداکثر بهبود 30% و متوسط درصد بهبود %19 بود. ارزیابی ها بر اساس تعداد افراد فوت شده و تعداد تخصیص های اشتباه نیز نشان از قابلیت رویکرد پیشنهادی بود. مقایسه بین استراتژی های ارائه شده نشان داد که استراتژی چهارم با ماهیت مکانی، نتایج بهتری را ارائه می دهد. در نظر گرفتن استراتژی های تخصیص به ازای مقادیر مختلف اختلال در اجرای وظایف نیز نشان از برتری استراتژی های تخصیص وظایف مکانی بود. اجرای تخصیص وظایف به ویژه استراتژی های مکانی موجب بهینه سازی و انعطاف پذیری برنامه شده و شرایط را برای تحمل خطا و ثبات همکاری عامل مبنا ایجاد می کند.
    کلیدواژگان: استراتژی مکانی تخصیص، تخصیص وظایف، محیط های بحران زده، همکاری بین عاملی، سیستم های چندعاملی
  • بنیامین حسینی، جلال امینی* صفحات 189-198
    امروزه سیستم های تصویربرداری رادار روزنه مصنوعی در مسائل گوناگونی از جمله سنجش ازدور کاربرد دارند. جهت استفاده از سیگنال دریافتی سیستم SAR نیاز به پردازش سیگنال خام دریافت شده و ایجاد سیگنال تصویر مختلط تک منظر (SLC) [1]. از جمله کاربردی ترین این الگوریتم ها می توان به الگوریتم RMA اشاره کرد. این الگوریتم مختص سیستم های تصویربرداری فضابرد و هوابرد است. با این حال ویژگی های این الگوریتم باعث شده تا در کاربردهای بردکوتاه نیز نتایج مناسبی داشته باشد. در این مقاله عملکرد این الگوریتم بر یک سیستم تصویر برداری رادار روزنه ترکیبی زمینی با برد خیلی کوتاه مورد آزمایش و بررسی قرار می گیرد. الگوریتم Range Migration بر چندین هدف شبیه سازی شده طبق شرایط مورد نظر اجرا و در نهایت طبق معیارهای PSLR و ISLR مورد بررسی قرارگرفت. طبق این دو معیار، مقدار میانگین PSLR در راستای برد برابر با 1143/13- دسی بل و در راستای آزیموت برابر با 2153/13- دسی بل و مقدار میانگین ISLR در راستای برد برابر با 9726/5- دسی بل و در راستای آزیموت برابر با 1159/6- دسی بل گردید. با مقایسه نتایج حاصل با حالات تصویربرداری با برد بلندتر می توان به عملکرد مناسب و قابل قبول الگوریتم RMA برای سیستم های تصویربرداری با برد خیلی کوتاه پی برد.
    کلیدواژگان: رادار روزنه ترکیبی، SAR، پردازش سیگنال، تشکیل تصویر، سکوی زمینی، Range Migration Algorithm
  • حامد افشارنیا، حسین عارفی* ، محمدعلی شریفی صفحات 199-213
    اگرچه ضرایب توجیه تصاویر ماهواره ای یا همان اطلاعات RPC باعث سهولت پردازش هندسی تصاویر ماهواره ای شده اند اما به علت وجود بایاس در این ضرایب، نیازمند اطلاعات کنترل زمینی هستند. از طرف دیگر مرحله جمع آوری مستقیم اطلاعات کنترل زمینی با به کارگیری مدل های ارتفاعی موجود از منطقه قابل جایگزینی می باشد. برای این منظور، با در اختیار داشتن حداقل یک زوج تصویر ماهواره ای و تولید ابر نقاط سه بعدی از پوشش مشترک این تصاویر به کمک اطلاعات خام RPC، بحث انطباق این مدل نامنظم ارتفاعی (مدل نسبی) با یک مدل ارتفاعی منظم (مدل مطلق) مطرح می شود. در این تحقیق، یک روش انطباق مدل های ارتفاعی بر مبنای توسعه روش شیب-مبنا معرفی می شود به نحوی که علاوه بر انتقال سه بعدی، مدل نسبی در یک مرحله جداگانه تراز می شود. ویژگی مهم روش پیشنهادی، عدم تغییر سیستم مختصات مدل نسبی و در نتیجه برآورد خطای حاصل از بایاس اطلاعات RPC در همین سیستم مختصات می باشد. به منظور ارزیابی روش پیشنهادی، یک زوج تصویر ماهواره ای Cartosat-1 و مدل ارتفاعی SRTM از منطقه ای کوهستانی تدارک دیده شده است. در ارزیابی به کمک نقاط کنترل زمینی، مقادیر آفست مسطحاتی محاسبه شده با روش پیشنهادی در راستای طول و عرض جغرافیایی به ترتیب 77/0 متر و 23/1 متر با میانگین آفست محاسبه شده بر روی نقاط کنترل زمینی اختلاف نشان می دهد که با توجه به ابعاد پیکسل زمینی 5/2 متری تصاویر Cartosat-1، این برآورد با دقت حدودا 58/0 پیکسل انجام شده است
    کلیدواژگان: تصاویر استرئو ماهواره ای، بایاس اطلاعات RPC، مدل رقومی زمین، SRTM، انطباق مدل های ارتفاعی
  • روح الله کریمی* ، علیرضا آزموده اردلان، امیر عبادی صفحات 215-224
    مدل سازی جهانی میدان ثقل زمین با استفاده از مشاهدات ماهواره های ثقل سنجی و داده های گرانی زمینی و دیگر داده های ژئودتیکی انجام شده است که مدل های جهانیEGM2008 و EIGEN-6C4 نمونه ای از آن ها هستند که تا درجه و مرتبه 2190 بسط یافته اند. به علت دقت محدود و ناهمگن این مدل ها در مناطق مختلف، مدل سازی محلی میدان ثقل از طریق حل مساله مقدار مرزی ژئودتیکی با استفاده از داده های گرانی زمینی همواره مورد توجه بوده است. در ایران نیز شبکه چندمنظوره با رزولوشن حدود 5 دقیقه کمانی برای ایجاد داده های زمینی مورد نیاز مانند گرانی، تعیین موقعیت سه بعدی و ارتفاع ارتومتریک، طراحی شده و درحال مشاهده است. در خصوص داده های گرانی سوال مهمی که مطرح است این است که رزولوشن این داده ها در مدلسازی محلی تا چه اندازه مهم است و آیا با هر داده گرانی زمینی و با هر رزولوشنی می توان مدلهای محلی با دقتی بیشتر از مدلهای جهانی داشت؟ از همین رو در مقاله حاضر موضوع تاثیر رزولوشن داده های گرانی زمینی ایران در تعیین ژئوئید محلی و مقایسه آن با ژئوئیدهای جهانی مورد مطالعه قرار گرفته است. به همین منظور در محدوده ایران چهار منطقه آزمون با رزولوشن های متفاوت انتخاب شد. در هر منطقه آزمون، با استفاده از حل مساله مقدار مرزی ژئودتیکی بر اساس تکنیک حذف-محاسبه-بازگشت، ژئوئید محلی برای هر منطقه محاسبه شد. از آنجاییکه در تکنیک حذف-محاسبه-بازگشت، نیاز به مدل رفرانس است، از مدل جهانی EGM2008 تا درجه و مرتبه های 360، 720، 1080 و 2160 به عنوان مدلهای رفرانس استفاده شده است. سپس ژئوئید محلی در این مناطق با ژئوئیدهای جهانی براساس همین مدلهای رفرانس در نقاط GPS/Leveling مقایسه شد. نتایج مقایسه نشان می دهد که علاوه بر دقت داده های گرانی زمینی، رزولوشن آنها نیز در تعیین ژئوئید بسیار حایز اهمیت است و با هر رزولوشنی نمی توان ژئوئید محلی بهتری نسبت به ژئوئید جهانی بدست آورد. همچنین در این مقاله نشان داده شده است که ژئوئید محلی با استفاده از داده های گرانی زمینی وقتی نسبت به ژئوئید جهانی متناظر بهبود دارد که رزولوشن داده های گرانی مورد استفاده بهتر از رزولوشن متناظر با درجه و مرتبه مدل ژئوپتانسیلی جهانی باشد.
    کلیدواژگان: مدل سازی محلی میدان ثقل، مساله مقدار مرزی ژئودتیکی، حذف-محاسبه-بازگشت، داده گرانی زمینی، ژئوئید
  • مرجان قنبری ، فرید کریمی پور*، علی اسماعیلی صفحات 225-234
    شبکه حسگر بی سیم، از تعداد زیادی گره های حسگر که به صورت یکنواخت و یا غیریکنواخت درون ناحیه مورد نظر مستقر شده اند، تشکیل شده و قابلیت موثری در نظارت پدیده های محیطی همچون آتش سوزی جنگل ها، پایش نشت مواد آلاینده و همچنین در امور مدیریتی و صنعتی دارد. در یک شبکه حسگر بی سیم، گره های حسگر به منظور تشخیص پدیده ها سراسر منطقه مورد نظر پراکنده می شوند. بنابراین پوشش سراسری منطقه به وسیله گره های حسگر، در کسب اطلاعات بسیار موثر است. با این حال حفره های پوششی بنابر دلایل مختلفی از جمله توزیع غیریکنواخت حسگرها، خرابی گره ها و اتلاف انرژی آن ها در منطقه مورد مطالعه ظاهر می شوند. مطالعه حاضر بر تعیین موقعیت حسگرهای جدید به منظور پوشش حفره ها و دستیابی به پوشش سراسری در شبکه حسگر بی سیم تمرکز دارد. برای این منظور، عملکرد روش درخت مبنا در افزودن حسگرهای جدید در شبکه حسگرهای بی سیم مورد ارزیابی قرار گرفته است. نتایج به دست آمده نشان می دهد با وجود عملکرد کلی قابل قبول این روش، در مواجهه با برخی آرایش های خاص از حسگرها کارایی مناسبی ندارد، که دلیل عمده آن، عدم توجه به موقعیت حسگرهای موجود در هنگام اضافه کردن حسگرهای جدید است. از این رو در روش ترکیبی پیشنهادی، روش درخت مبنا به گونه ای بهبود یافته که توانایی پوشش مناسب حفره ها با ابعاد و اشکال مختلف را دارا می باشد. نتایج به دست آمده نشان دهنده عملکرد بهتر روش ترکیبی نسبت به روش درخت می باشد، زیرا در تعداد تکرار کمتر و با اضافه نمودن حسگرهای کمتر قادر به ایجاد پوشش سراسری در منطقه مورد نظر می باشد.
    کلیدواژگان: شبکه حسگر بی سیم، توزیع غیریکنواخت، حفره های پوششی، پوشش سراسری، روش درخت مبنا
|
  • M. Salehi , A. Mohammadzadeh* , Y. Maghsoudi Pages 1-11
    Increasing the agricultural crops due to climatic conditions, limitation of water resources, limitation of suitable agricultural lands, as well as financial constraints in the country is faced with a lot of problems. Therefore, in order to provide food, the efficiency of the production factors, especially of the water and soil, should be increased. This requires regular monitoring of crops. Remote sensing is one of the most important techniques used in agricultural crop monitoring. SAR remote sensing can bridge the gap between the need for crop information over large scales and the necessity of frequent observations. SAR observables are sensitive to the various characteristics of crops. Today, developing the monitoring methods in the large scale is an important issue for reasonable management of natural resources, especially for the populous countries. The purpose of this study is to monitor and retrieve some parameters of agricultural crops using time series of polarimetric interferometric synthetic aperture radar (PolInSAR) images. The time series of PolInSAR data include intensity, polarimetric, and interferometric information that reflect a large amount of information on various crops. The information obtained from the optics data, the intensity and the polarimetric data is not suitable for retrieving some of the crop parameters such as the height. However, the interferometric data can play a role in monitoring and retrieving these parameters during the growing season. In the present study, the proposed monitoring method is based on the derived features of a decomposition model and regression based methods. In this method, first, an optimal polarization base with the maximum correlation between the slave and master images is calculated. Then eigenvalue decomposition is applied to the interferometric polarimetric covariance matrix in that optimal base, and the features such as entropy and alpha are calculated. Some of these features have a high linear relationship with height, biomass and phenology, and others provide useful information for improving the estimation performance. Finally, the crop parameters are estimated based on the 13 PolInSAR features and also the artificial neural network and support vector regression. The validation analysis is carried out using the images of E-SAR sensor of the DEMMIN region in Germany. These images are acquired between May and June of 2006 and the ground data during the growth cycle is available. The results for wheat and barley crops indicate the good performance of the proposed method in monitoring and retrieving the parameters. Both methods used for estimation including neural network and support vector regression have the good estimates of crop parameters and can be used to monitor the crops. For example for wheat, the RMSE values were 0.21, 0.59 and 0.21, using neural network and 0.21, 0.52 and 0.46, using support vector regression, in height, biomass and phenology estimation, respectively. The estimation results for height and phenology are better than the biomass. Also, using the neural network in the estimation has a relatively higher computational cost. The proposed method can be an appropriate alternative to the experimental and physical models available in the estimation of parameters such as height, which due to the lack of data with suitable baseline can not be used.
    Keywords: Crop Monitoring, Parameter Estimation, Time Series Data, Polarimetric Interferometric, Eigenvalue
  • I. Khosravi* , A. Safari , S. Homayouni Pages 13-34
    Optical and polarimetric synthetic aperture radar (PolSAR) earth observations offer valuable sources of information for agricultural applications and crop mapping. Various spectral features, vegetation indices and textural indicators can be extracted from optical data. These features contain information about the reflectance and spatial arrangement of crop types. By contrast, PolSAR data provide quad-polarization backscattering observations and target decompositions, which give information about the structural properties and scattering mechanisms of different crop types. Combining these two sources of information can present a complementary data set with a significant number of spectral, textural, and polarimetric features for crop mapping and monitoring. Moreover, a temporal combination of both observations may lead to obtaining more reliable results compared to the use of single-time observations. However, there are several challenges in cropland classification using this large amount of information. The first challenge is the possibility correlation among some optical features or radar features which leads to redundant features. Moreover, some optical or radar features may have a low relevancy with some or all crop types. These two challenges cause to increase complexity and computational load of classification. In addition, when the ratio of number of samples to the number of features is very low, the curse of dimensionality may be occur. Another challenge of classification is the imbalanced distribution among various crop types, the so called imbalanced data. Various classifier have been presented for cropland classification from optical and radar data. Among these classifiers, the multiple classifier systems (MCS) especially the random forest (RF). The main aim of this paper is an alternative to RF which is able to solve these two challenges, the curse of dimensionality and the imbalanced data, simultaneously. The proposed MCSs have other modifications in feature selection and fusion steps of RF. These two methods called as balanced filter forest (BFF) and cost-sensitive filter forest (CFF).
    The study area of this paper was the southwest district of Winnipeg, Manitoba, Canada, which is covered by various annual crops. The data used in this paper were bi-temporal optical and radar images acquired by RapidEye satellites and the UAVSAR system. RapidEye is a spaceborne satellite, which has five spectral channels: blue (B), green (G), red (R), NIR and RE. In this paper, two optical images were collected on 5 and 14 July 2012. Both these images were orthorectified on the local North American 1983 datum (NAD-83) with a spatial resolution of about 5 m. The UAVSAR sensor is an airborne SAR sensor, which operates in the L-band frequency in full polarization mode (i.e., HH, HV, VH and VV). The radar images used in this paper were simultaneously acquired with the optical images. They were orthorectified on the World Geodetic System 1984 datum (WGS-84) with an SRTM3 digital elevation model. They were also multilooked by 2 pixels in azimuth and 3 pixels in range directions. Moreover, the de-speckling process, using a 5 × 5 boxcar filter, was applied to the data in order to alleviate the speckle effect. The spatial resolution of these images was then approximately 15 m.
    The results indicated that the proposed methods could increase the overall accuracy to 10% and the speediness to 6 times more than the classical RF method.
    Keywords: Multiple Classifier System, Decision Tree, Cropland Classification, Optical Images, Radar Images
  • M. Hamidi* , H. Ebadi , A. Kiani Pages 35-52
    Building detection from remote sensing images has significant importance in updating the maps, urban monitoring, and a wide range of other applications. The high spatial resolution images are an important data source for geospatial information extraction. These images provide extraordinary facilities for feature extraction like buildings and spatial analysis in urban areas. However this task suffers from some problems due to spectral complexity in the image scene. Since high resolution images contain a lot of details about the scene such as; non-homogeneity of the roof of the buildings, sloping and flatness, it can create various spectral properties among other issues. Also, due to the use of similar materials, some buildings can’t be completely separated from the streets and parking. To overcome these issues, the use of neighborhood and height information is essential. Accordingly, the major part of this research is the use of spatial features of adjacent pixels in a multispectral image and elevation data to increase the accuracy of building classification. In this regard, on the one hand, with the expansion of the feature space in a quasi-deep method, the goal was to train the classification algorithm in higher level and more comprehensive information. But all the features available to distinguish between buildings and non-buildings are not useful. On the other hand, due to the large amount of input data and the increased computing time and memory required, to reduce the processing cost, it is necessary to perform the feature selection operation. Despite many efforts that have been made over the past decades to develop the methods for automatic building detection from these images, high-performance methods are still unavailable because of the uncertainties like optimal feature selection. Therefore, in this study, with a view to improving the automatic detection of the building from remote sensing data, a new hybrid approach is proposed to select the optimal features of the large dataset in a reasonable time. The proposed method of this research firstly extracts high-level features for optimal building detection by using quasi-deep texture structures. Then, it selects the optimal features based on the integration of the developed AdaBoost algorithm (Confidence Based AdaBoost) with the optimized support vector machines by particle swarm optimization (CB-SVMpso), and performs the binary classification of the building and background. The experiments were performed on the standard data set of Vaihingen in Germany and then the results of the proposed method were compared with efficient methods of machine learning. Also, a comparison was made between the quasi-deep feature sets with the traditional method of GLCM textures. In experiments, in order to purify the final results, no pre-processing and post-processing steps have been interfered. The experimental results showed that on average, the highest overall accuracy and kappa coefficient obtained from the proposed method were 93.25% and 83.06%, respectively, and in comparison to conventional methods, the accuracy of kappa coefficient has increased by 7.27%, as well as the computational time reduction by half, indicating the reliability and efficiency of the proposed method in detecting the majority of buildings.
    Keywords: Keywords: Building Detection, Remote Sensing, Feature Selection, Classification
  • D. Talebi* , M. Karimi Pages 53-68

    Recent decades has witnessed the use of multi- version in multi- scale spatial databases. Multi- scale spatial databases developed using these method have disadvantages, such as storage and time issues, and economic problems. As multi- scale spatial databases are among basic components in Spatial Data Infrastructures and play a ruling role in digital cities construction, the abovementioned method cannot ensure economic beneficiaries. Today, in order to resolve its disadvantages, a generalization process is used. Due to the incorporation of individuals' favours in choosing and adjusting the parameters, rules, operators, and algorithms, different spatial databases are generated that the selection of the best alternative becomes a significant problem.
    Considering the importance of generalization process in building multi- scale spatial databases and the ability of generating various outputs through different generalization algorithms and operators, the selection of best and most similar output is necessary. The main aim of this thesis, which is the innovation of this research, is to present an integrated approach in order to calculating spatial similarity degree of the output of generalization algorithms of linear topographic databases in multi- scale space using the combination of models and criteria indicating the spatial similarity degree individual linear objects and the matching methods for groups linear objects. In this paper, Road networks are used as representatives of linear topographic databases. First, in order to produce different outputs of road networks, the Douglas- Peucker generalization algorithm have been used. In this research, two road networks were used in the scale of 1:25000 and 1:50000, and the Douglas- Peucker generalization algorithm were implemented on multiple thresholds on the road network of 1:25000 scale. Then, the matching process has been conducted using five geometric criteria, namely tangent function, direction, median Hausdorff distance based on length, buffer common area, length on the road network of 1:50000 scale and each of the different outputs generated by the generalization algorithms. For each of the two matched road networks, the F- score value, which represents the degree of accuracy of the matching process, was calculated and those with an F- score value of over 95% were chosen to calculate the spatial similarity degree.
    After the matching and selection of road networks with an F- score value of over 95%, the spatial similarity degree between the selected road networks was calculated using four relations of distance, direction, topology and attribute. The distance relations include density, length, number of lines, straight- line distance, sinuosity, complexity, linear object area, curvilinearity, and tangent function. The direction relations include difference direction and average angularity. The topological relations include difference topology, number of points, and degrees of points and the attribute relation include significance value. In the end, the total spatial similarity degree was calculated for each pair of compare road networks. The results show that the Douglas- Peucker algorithm with 3 meters tolerance and spatial similarity degree 77.106 percent has the highest degree of spatial similarity among different outputs.
    In future researches, in order to increase the accuracy of matching, it is suggested in addition to the geometric criteria used in this study, topological criteria and attribute criteria are also used in the matching process. It is also recommended that in addition to the criteria used in this study to calculate the spatial similarity degree between two road networks, topological criteria relate to the relationship between lines in two road networks, as well as descriptive criteria such as the width of roads and the degree of roads. Also, in addition to the Douglas- Peucker algorithm, other generalization algorithms are recommended for the production of road networks at different scales, in order to identify the most similar smaller scale road networks using the large scale road networks.
    Keywords: Spatial Similarity Relations, Matching, Generalization, Road Network
  • M. Teimouri *, M. Mokhtarzade , Y. Amerian Pages 69-82
    The use of multi-source data, especially the fusion of optical and radar images, is a promising way for improving the level of interpretability of the remote sensing data which leads to a significant performance improvement. In most practical situations, there are two important challenges in the image classification
    methods
    feature space generation and choosing the appropriate method for feature selection. This paper aims at reducing the time required for achieving the optimal features. To realize this objective, a new feature selection method is suggested based on the fusion of optical and radar images. In the proposed method, Minimal Redundancy-Maximal Relevance (MRMR) and Genetic Algorithms (GA) are combined and the optimal features are seeked to improve the classification accuracy based on the SAR and optic data. In doing so, at first the SAR data and the optical image are fused together using wavelet procedure. Afterward, several features are extracted from the fused image. In the next stage, the feature selection step is carried out based on the GA method and the combination of the MRMR and GA which is termed MRMR-GA algorithm. Lastly, the fused image is classified using the support vector machine classifier. For the performance analysis of the proposed approach, the TerraSAR and the Ikonos images which are acquired over Shiraz in Iran, are employed. The suggested method leads to the overall accuracy of 97.25 percent, which indicates the accuracy of the MRMR-GA method is 3% higher than that of the SVM classification with inclusion of the entire feature set. Moreover, the overall accuracy of the proposed approach and GA is approximately equal, while the performance of the MRMR-GA method is approximately 2.5 times faster than the GA. Therefore, the obtained results confirm the efficiency of the proposed method in feature selection for the purpose of the image classification.
    Keywords: Image Classification, Fusion, Feature Selection, MRMR-GA
  • A. Sedaghat , N. Mohammadi* Pages 83-97

    Image registration aims to establish precise geometrically alignment between two images of the same scene taken at different times, different viewpoints, or different sensors. It is an essential task in diverse remote sensing and photogrammetry processes such as change detection, 3D modeling, information fusion, geometric correction, and bundle block adjustment. Nowadays, feature based approaches are generally used for satellite image registration due to their resistant against geometric and radiometric variations. A feature based image registration method comprises three main steps: (1) control point (tie-point) extraction, (2) transformation model computation, and (3) image resampling. In the first step, some distinctive conjugate features are automatically extracted using various image matching approaches. In the second step, a suitable transformation model between two images is computed using the extracted control points from the previous step. In the third step, the input image is rectified to the geometry of the base image using the computed transformation model.
    Transformation models generate the spatial relation between the images and play a critical role in the positional accuracy of the image registration process. Various transformation models have been proposed for remote sensing image registration. The transformation models are generally divided into two types: (a) global models and (b) adaptive models. The global models have a constant number of parameters and describe the global spatial relations between two images. In contrast, the number of parameters in adaptive models are not constant and varies with the severity of the geometric variations and the number of control points. Each transformation model has its strengths and drawbacks. In this paper the capability of some popular transformation models, including similarity, projective, polynomials of degrees 1 to 4, piecewise linear (PL), Multiquaderic (MQ) and Pointwise (PW) are evaluated for high resolution stereo satellite imagery.
    To extract high accurate and well distributed control points, an integrated image matching process based on FAST (Features from Accelerated Segment Test) detector, SIFT (Scale Invariant Feature Transform) descriptor and the least square matching algorithm has been proposed. In this method, the initial point features are efficiently extracted using FAST algorithm in a gridding strategy. Then, the well-known SIFT descriptors are computed for extracted features. The control points are determined using feature descriptor comparison in two images, and their positional accuracy are improved using least square matching method.
    Two evaluation criteria, including computation speed and positional accuracy are used to investigate the capability of the transformation models. To investigate the effect of the feature density in quality of the transformation models, the extracted control points are divided into four classes with different number and distribution of the control points. The experimental results using two high resolution remote sensing image pairs from ZY3 and IKONOS sensors, show that the adaptive MQ model provides the best results, followed by PW and PL models. In contrast, the similarity, projective and global polynomial models do not provide acceptable results for accurate registration in high resolution remote sensing images. However, the commutation time in adaptive models especially in MQ is very high. The registration accuracy of the proposed approach for the MQ model is 2 and 1.9 pixel, for the ZY3 and IKONOS images respectively
    Keywords: Image Registration, 2D Transformation model, FAST Features, Control Point Distribution
  • M. Babadi *, M. Sattari Pages 99-113

    In recent years, Light Detection and Ranging (LiDAR) systems, as one of the active remote sensing laser technology, have become one of the most promising tools for measurements of Earth surface and its modeling. With the advent of airborne and satellite LiDAR systems, it has been possible to extract information and parameters related to the vertical structure of the targets, especially trees, while earlier, this was not possible by the use of passive remote sensing data such as multispectral images. Point cloud generated by this sensors provides precise information of the targets on the laser path and their vertical distribution. Some of the applications of these systems are forest management, measurement of forest parameters, Digital Terrain Model generation, sea depth determination, the polar ice thickness determination, 3D city modeling, bridge and power line detection, costal mapping, open cast mapping and land cover classification. Due to the fact that the output of primary LiDAR systems (discrete LiDAR systems) is merely point cloud and is less associated with the intensity recorded for them, there are some limitations in some of its applications such as tree species classification and single tree detection especially in densely forested areas. Since 2004, new commercial airborne laser scanners, namely full waveform LiDAR Systems, have appeared. In recent years, recording the full waveform LiDAR data by these systems has made it possible to rectify some of the weaknesses of the discrete LiDAR systems such as low density of generated point cloud and their limitation in classification tasks; these systems made it possible to classify different tree species and classify targets more precisely by providing features of return waveforms such as amplitude and intensity of return pulses. One of the challenges related to these data is how to decompose return waveforms and generate point cloud and additional information related to waveforms. A great deal of research has been done on using discrete LiDAR data and its applications in forest management and 3D city modeling in Iran; However, full waveform LiDAR data, the process of decomposing LiDAR waveforms to point cloud and different decomposition methods are still unknown. Some of the most important reasons for this matter are unavailability of these data, lack of enough knowledge about the nature of this type of data, Lack of software especially free ones for processing them and the lack of information from commercial firms producing LiDAR sensors. In this research LiDAR waveforms of a forested area have been investigated and it has been tried to show how to decompose raw full waveform LiDAR data to 3D point cloud and extract information and features related to each return waveform. In addition in this research, the results of point cloud generated from full waveform LiDAR data is compared with point cloud acquired from LiDAR sensor to show how the density of LiDAR point cloud can be increased by full waveform analysis. Finally, the generated LiDAR point cloud is visualized based on its extracted features such as amplitude, width, intensity and number of return to show their application in clustering and classification tasks.
    Keywords: Full Waveform LiDAR System, Return Waveform Analysis, Point Cloud Generation, LiDAR Features Generation
  • S. R. Soofbaf , M. R. Sahebi *, B. Mojaradi Pages 115-132
    Since the anomalies are unknown targets with low probabilities of occurrence which are significantly different from their neighbors, anomaly detection could be considered as one of the most important information extraction approaches from hyperspectral data. Various types of parametric and non-parametric algorithms have been developed in this area from the 1990's decade. Recently, sparse representation methods have been introduced and successfully accepted as a useful tool for anomaly detection based on the recovery of the majority of high-dimensional signals via a low-dimensional subspace through a dictionary of normalized signals called atoms. In other words, having a dictionary composed of bases denoting the background subspace enables the accurate recovery of background signals. Moreover, the presence of anomaly signals, assuming their deviation from the background subspace, will not have a precise estimation by the background dictionary. Hence the main idea of these anomaly detection methods is focused on evaluating recovery errors of signals by a dictionary that describes the background subspace. In such procedure, removing the atoms that describe the anomaly in the background dictionary can be considered as one of the essential actions. To this aim making diversity in the definition of spatial neighborhoods of spectral signals, as well as voting-based judgment in different situations of the spatial distribution could be proposed. In other words, by designing an optimized local dictionary, based on a local sliding window, the votes of each signal in terms of anomaly presence in each spatial neighborhood could be calculated with the aim of achieving better judgment. In this paper, a new anomaly detector for hyperspectral images is proposed based on simultaneous sparse representation using a new structured sliding window. The main contribution of this research is to improve the judgments about the anomaly presence probability using information collected during transition of the mentioned sliding window for each pixel under test. In this algorithm, each pixel experiences various spatial positions with respect to the neighbors through the transition of the sliding window. In each position, an optimized local background dictionary is molded using a well-known K-SVD method as an iterative process and the recovery error of sparse coding for each pixel under test is calculated using a simultaneous orthogonal matching pursuit algorithm (SOMP). So, the votes of each pixel in terms of the anomaly presence in each neighborhood are calculated and finally the variance of these estimated errors is considered as the anomaly detection criterion. The experimental results of the proposed method using four datasets (synthetic and real datasets) proved its higher performance compared to the GRX, LRX, CRD and BJSR detectors with an average efficiency improvement of about 9%. In addition automatic tuning of the proposed algorithm parameters (level of sparsity and the size of sliding window) and developing parallel processing techniques to improve the running time of this algorithm are the focus of our future research. It is notable that the implementation of this idea and its success showed that development of voting algorithms and the combination of the results could be considered as an efficient approach could also be utilized in other hyperspectral image processing algorithms.
    Keywords: Keywords: Hyperspectral Images, Animaly Detection, Sparse Coding, Sliding Window, KSVD
  • M. Saei Jamalabad* , B. Mojardi , A. A. Abkar Pages 133-150

    Wheat is considered as a strategic product in the world, and in Iran it is considered as a major source of food, so that for many years, one of the goals of the government has been to achieve self-sufficiency in providing this product.
    The estimation of the winter wheat crop area and its spatial distribution in the country, during the plantation and growth period, has a vital role in the value assessment, storage planning, as well as import-export planning. Remote sensing classification techniques, based on one image, are widely used to this task. Remote sensing is considered as a suitable solution to overcome the problems of common and traditional inventory methods. However, drawback of these classical methods is that the winter wheat crop’s spectral signature is very similar to spectral signature of some other crops growing simultaneously (e.g. barley, alfalfa), which limits the classification performance. To improve the classification results’ accuracy, multi-temporal imagery acquired during the growth period are instead used. Classification algorithms based on ensemble classifiers are suitable tools to decrease the classification problems of time series images. One appropriate technique for coping with multi-temporal imagery-based classification problems is random forest classifier. In researches performed to determine the area under wheat cultivation, in most cases due to high similarity between wheat and barley, these two products are considered as a same class.
    In this research, ten Landsat satellite images from Marvdasht-Fars province with cloudiness less than 20% were selected. Then radiometric and atmospheric corrections were applied to all images and the time series analysis was performed as follows to increase the accuracy of wheat classification:- Analysis and selection of optimum images in time series instead of using all images and decreasing volume of calculations and process time
    - Improving and upgrading the classification results by producing new features in time series and finally surveying the improvement rate of final accuracy and increasing rate of capability of proposed method in separation of wheat from barley.
    -Determining the most important input features and most suitable dates for imaging by calculation of variable importance in random forest algorithm.
    -Early classification of wheat and separating it from other classes at least two months before product harvest.
    The results of this research are as follows: Although the use of spectral bands data of time series images in a random forest algorithm, as input features of the model, increased the accuracy of the results compared to the use of single-image, but the use of these features alone, will not have results with high precision for the separation of wheat and barley (due to the high similarity of these two products). If we consider these two products as a single class, by this method it is possible to separate these two classes from the others in the region with overall accuracy of 89.5% and Kappa Coefficient 93.1%.
    Using time series of spectral bands of images and vegetation indices and their difference in average increased overall accuracy and Kappa coefficient and barley producer’s accuracy, so that in case of using only three optimized and selected images by algorithm, barley producer’s accuracy increased and improved by 47%.
    By examining the variable importance of the random forest algorithm, optimal images and the most important vegetation indices were recognized as the most effective features. The results showed that among the vegetation indices and their differences, the difference of STVI3 index and then the EVI and MSAVI for the images of 2015.4.17 and 2015.5.3 dates are the most important features. In addition, by surveying the sum of features used in this research, it was determined that the images of 2015.1.11, 2015.4.17 and 2015.5.3 have the most importance among images of time series.
    Finally, through analysis of the importance of the developed features, we found that different vegetation indices and spectral gradient of multi-temporal images’ bands are the most important features for improving the classification results.
    Since in this method, the stages of plant growth are surveyed in different times in some way and all extracted information from the images are analyzed as a whole, the suggested way for classification of other products can be generalized considering different cultivation times, peak greenness, their harvest and also for different regions.
    Keywords: Wheat Classification, Random Forest, Spectral Gradient Difference, Vegetation Indices, Time-Series of Remotely Sensed Images
  • S. Beheshtifar* , A. Alimohammmadi Pages 151-161

    Considering to the compatibility of the urban land uses is one of the important issues in optimization of their spatial arrangement. The most common way of mitigating the negative effects of conflicting land uses on each other is to maintain a certain distance between them. Due to the need to investigate a high amount of information for optimization of the different land uses arrangement and limitations of the precise methods, researchers have focused on the meta-heuristic methods (e.g. genetic algorithm) to solve such problems. Furthermore, because of the need to notice multiple objectives and criteria, multi-objective optimization methods have been considered. To ensure adequate separation distances between incompatible land uses, they can be entered as constraints to these types of optimization methods.
    In this research, a hybrid method is proposed to meet distance constraints in an optimization problem for locating multiple land uses. For this purpose, a multi-objective genetic algorithm was used to maximize the location suitability and compatibility of the land uses. Simulated Annealing (SA) method was applied to repair infeasible individuals and meet distance constraints in related solutions. SA is a probabilistic technique for approximating the global optimum of a given function. Simulated annealing starts with an initial solution. A neighboring solution is then selected. If the neighbor solution is better than the current solution, is considered as the current solution. Otherwise, the candidate solution, is accepted as the current solution based on the acceptance probability to escape local optima.
    In this study, the solutions are generated by the genetic algorithm. Each gene of the chromosome represents the location of a candidate site. After generating the population, the distance constraints are checked and infeasible solutions are determined. A solution to which all the distance constraints are met is the feasible solution, otherwise the solution is infeasible. Repairing the infeasible chromosomes were done as follows:• Identify the gene (s) which makes the chromosome infeasible
    • Identify the neighbors of that gene (s) according to the distances between genes
    • Create new solutions using neighbors
    • Calculate the rate violations of new solution
    • If all new solutions are infeasible, the solution will be replaced by the solution by minimum violation.
    • If only one feasible solution is generated, the initial solution will be replaced by it.
    • If more than one feasible solutions are generated, the values of the objective functions are
    calculated for feasible solutions. Non-dominated solutions are identified. Among them, the solution which has lesser difference with the initial solution, is selected.
    The results of the research show that the proposed method can be effective in repairing infeasible individuals and converting them to feasible ones, with regard to distance constraints. In this method, for each infeasible individual, several alternatives are generated, from which the closest feasible solution to the original solution, with the better objective function values, can be selected.
    Increasing the number of neighbors for each site in SA will make it easier to get feasible solutions.
    By the way, by entering the farther neighbors, there may be more distance between the initial solution and the new solution that replaces it.
    Keywords: Land Use Compatibility, Constrained Multi-Objective Optimization, Simulated Annealing (SA), Genetic Algorithm (GA)
  • A. Ghorbanian* , A. Mohammadzadeh Pages 163-171
    Particulate matters (PM) with an aerodynamic diameter less than 10 microns will cause serious damages to human health. Moreover, their presence can have a critical impact on climate change, global warming, and earth radiance budget. Therefore, obtaining precise information about their concentration and spatial distribution is crucial for public health and environmental studies. High concentration of PM10 can be named as a major environmental and public health problems especially for industrial and populated cities around the world. Thus, policymakers and environmental organizations have decided to establish pollution station to measure various pollutants including PM10. Obviously, it is not possible to establish many pollution stations based on economic justifications so, an only limited number of these instruments are located in every city. However these instruments can measure and record the PM10 concentration with high precision, they only provide sparse point observations. In this case, remote sensing data can be utilized to fill this gap and solve the existing discontinuity problem. Generally, two kinds of remote sensing data which have a good representation of existing pollutant in the atmosphere can be used for this purpose. Aerosol optical depth (AOD) and aerosol contributions to apparent reflectance (ACR) are two of these data. ACR images can be simply calculated from each satellite image consisting of Red and SWIR (2.1 µm) bands. This could be achieved by estimating the surface reflectance (SR) of the Red band from the top of atmosphere reflectance (TOAR) of the SWIR band. Then, the difference of SR and TOAR of the Red band can be a representation of the amount of atmosphere reflectance related to existing pollutants. In this study, we have used ACR images instead of AOD data to estimate PM10 concentrations and produce PM10 pollution maps for Tehran city in Iran based on three reasons. First, they have better spatial resolution and second, they are spatially continuous in contrast to AOD data which include much gaps in the study area due to dark target limitations for AOD value retrieval. Lastly, an aerosol robotic network (AERONET) station is not located in this area which is required to evaluate the precision of retrieved AOD values. MODIS level-1B images named MOD02HKM for 8 days in 2017 with corresponding ground measurements of PM10 concentrations from 14 pollution stations have been utilized in this area. Four different regression model including linear, exponential, logarithmic, and power regressions are employed to estimate PM10 concentrations and produce pollution map. Three criteria of R square, the correlation between estimated and observed (measured) PM10 concentrations, and root mean square error (RMSE) are employed to investigate the performance of four regression models. Based on the R square criterion, the linear regression model with 0.5912 performs better than exponential, logarithmic and power regressions with 0.5826, 0.5808, and 0.5782 R square values respectively. Since we have observed different performance from four regression model based on three evaluation criterion, we have applied a ranking method based on the evaluation criterion to determine the best regression model. Based on the ranking, we recognize that the exponential regression model performs better than linear, logarithmic and power regressions.
    Keywords: ACR, PM10, Non-Linear Regression, Spatial Distribution, MODIS
  • N. Hooshangi , A. A. Alesheikh* Pages 173-188

    Proper task allocation among agents enhances a system’s performance and reduces the probability of disorder in resolving a wide range of issues. Appropriate allocations are critical for the efficient implementation of tasks undertaken in natural hazard environments. Task allocation plays an important role in coordinating a multi-agent system (MAS) among a set of agents. Multi-agent systems consist of several automatic and autonomous agents that coordinate their activities to achieve a goal. Agents fail to reach their ultimate goal without the proper assignment of tasks. A proper approach to task allocations plays an important role in decision-making, particularly in urban search and rescue (USAR) operations in crisis-ridden areas. In the last decade, several studies were conducted regarding task allocation and different approaches have been presented to consider assigning tasks in MASs.
    This paper intends to provide an approach to task allocation in disaster environments through the consideration of appropriate spatial strategies to deal with disturbances. The challenge of this study is to provide the possibility of task reallocation in order to deal with uncertainties and events during the implementation.The main innovation of the study is that it presents an approach to improve conditions during reallocations, or future allocations, when initial allocations face problems due either to available uncertainties, or the addition of a new task. In other words, based on the nature of the implementation environment (natural disaster environments), current allocation is not only considered but it is performed with regard to future allocations. The selected spatial strategies for a change the order of tasks (preparation for reallocation) are different in accordance with the conditions and the studied phenomenon. In general, strategies are selected in such a way that the final cost of the system will not increase abnormally if initial allocations face a problem. For example, building destruction level are uniformly distributed after an earthquake. Therefore, the convergence of rescue groups should be prevented as much as possible and the initial allocation should be done in such way to decrease agent movement in future allocations.
    The proposed method is presented in five phases: ordering existing tasks, finding coordinating agent, holding an auction, applying allocation strategies and implementation and observation of environmental uncertainties. The scalability of the proposed method was evaluated with the contract net protocol (CNP) method. In comparison with CNP, the standard time of rescue operations in the proposed approach includes at least 12% of improvement and the maximum improvement of 30% and the average percentage of recovery was 19%. Then obtained from the simulation of the proposed approach indicated that the time of rescue operations in the proposed scenarios was always less than the time required in the CNP method.
    Further, the evaluations based on deceased people and incorrect allocations indicated the feasibility of the proposed approach. The comparison of the proposed strategies at different levels of uncertainty showed that an increase in uncertainty leads to an increased rescue time for CNP. An effective assigning approach should consider strategies for replanning in order to waste the least time during system disruptions. This optimizes planning to achieve better implementation time and provides conditions for fault tolerance. Also, considering strategies in the task allocation process, especially spatial strategies, resulted in the optimization and increased flexibility of the allocation as well as conditions for fault tolerance and agent-based cooperation stability in emergency management.
    Keywords: Spatial Strategies, Task Allocation, Multi-Agent Systems, Disaster Environments
  • B. Hosseiny , J. Amini* Pages 189-198
    Nowadays synthetic aperture radar (SAR) imaging systems are used in a wide range of applications. Synthetic aperture radar signal processing is processing radar signals with specific data acquisition geometry, in order to forming high resolution radar images in range and azimuth directions. In order to SAR processing become possible, radar antenna must move over the imaging scene. With antenna motion and SAR signal processing technique, we can generate an analytical antenna with narrow beamwidth in the along-tack direction. In order to make use of the SAR image in different applications, in the first step, it is needed to process the raw signals, acquired by the SAR system, and produce the single look complex (SLC) image. Different SAR signal processing algorithms have been developed to create the SLC image. Range migration algorithm (RMA) is one of the best and popular image formation algorithms from SAR signals, which operates in frequency domain. RMA is mostly used for imaging the Airborne and Spaceborne systems. Furthermore, other capabilities of RMA made it possible to use this algorithm for ground-based SAR (GB-SAR) systems. GB-SAR imaging follows the same imaging geometry principles of airborne and spaceborne systems but, the differences are in shorter analytical antenna in azimuth direction of GB-SAR, look angle of antennas, and targets range to sensor, which are very close, in GB-SAR scenario. In ground based systems, radar sensor is mounted on a straight rail. Radar sensor moves step-wise on the rail and acquires data from the corresponding range profile. At the end of data acquisition process, all the raw signals are stored in a two dimensional array. This two dimensional array in used as input of image formation processor and then the final image will be derived. Range Migration algorithm, consists of four main steps: (1) One dimensional long-track Fourier transform (2) Matched filtering (3) Stolt interpolation (4) Two dimensional inverse Fourier transform in azimuth and along-track directions. In this paper, we are going to develop the RMA for image formation of a Ground-based SAR system, which is used for very close range purposes. Our simulated SAR system operates in S-band and modulates signal form 2.4 GHz to 2.5 GHz. It mounted on a three meters long rail and acquires data every two centimeters. We simulate the different distributions of point targets, such as presenting one point target or presenting nine point targets in the imaging scene, based on the reflected signal model of targets. All the targets’ ranges are less than 40 meters. After simulating acquired two dimensional raw signal of targets, RMA is used to extract the focused targets. In post processing step, Hann window in used to suppress the sidelobes of compressed signals. PSLR and ISLR are used as parameters to analyze the quality of detected targets. The mean PSLR of all examined targets in range direction is -13.1143 dB and in azimuth direction is -13.2153 dB and also the mean ISLR of nine targets in range direction is -5.9726 dB and in azimuth direction is -6.1159 dB. Obtained results are acceptable compared to other imaging modes in higher ranges such as Airborne and Spaceborne imaging systems.
    Keywords: SAR, GB-SAR, Signal Processing, Image Formation, Range Migration Algorithm
  • H. Afsharnia , H. Arefi* , M .A. Sharifi Pages 199-213

    In order to reduce the effect of the systematic error (bias) in the RPC data in the generated DEM (relative model) from the satellite stereo images, an existing elevation model as an absolute model can replace the need for ground control points. In this research, a DEM matching strategy was introduced based on the development of the slope-based approach.
    Unlike other existing DEM matching methods that first apply a projection system, the proposed mathematical model, based on the coordinate system of the input data was developed. In this way, the parameters of the transformation were obtained in this coordinate system. As a result, it is possible to directly improve the RPC data of the stereo images, which are also expressed in the same coordinate system.
    Inspiring from the classical absolute orientation of the aerial images, the two-stage transformation was carried out separately. In order to evaluate the proposed method, a Cartosat-1 image pair and an SRTM model were provided from a mountainous region. This method compared with the original slope-based approach and provided a better approximation of the three-dimensional offset values between the relative and absolute models.
    The generation of the relative DEM (MATDEM) has been implemented in the MATLAB environment. In this research, it was considered a dense image matching method for generating the relative DEM. Therefore, an area-based solution has been used to reach the desired density of the results.
    The least squares image matching (LSM) method, as an area-based method, has the potential to achieve high precision and is mainly used as an alternative to increasing the accuracy of other matching methods. However, the LSM method has a low convergence radius and it is possible to fall into the local minima of the correlation function, which in turn reduces the reliability of the results. Therefore, it is important to produce the proper seed points which are located within the small convergence radius of this method. Here, these seed points were obtained using raw RPC data and the SRTM model. In this regard, a regular grid was assumed on the first image, and after the extraction of the seed points, the precise matching was performed using this method. Also, for comparison, a relative model (PCIDEM) was produced using the PCI-Geomatica software.
    The most important achievement was to discover the actual values of the bias of the raw RPCs in the MATDEM case. It was assumed that the systematic errors were propagated from the RPC data in the generated relative DEMs. The estimated values for offset parameters, particularly the offset in the longitude direction, were different for PCIDEM and MATDEM. According to the evaluations, the values obtained from the MATDEM have been more accurate. The reference data for this assessment was the offset calculated using ground control points. In the evaluations using ground control points, the offset values estimated by the proposed method along latitude and longitude directions were 0.77 and 1.23 m, respectively. With regard to the pixel size of Cartosat-1 images, the planimetric offset value was estimated as 0.58 pixels.
    Keywords: Satellite Stereo Images, RPC Bias, Digital Surface Model, SRTM, DEM Matching Method
  • R. Karimi *, A. R. Azmoudeh Ardalan , A. Ebadi Pages 215-224

    By increasing the accuracy and resolution of gravity data derived from terrestrial, airborne and satellite methods, the accuracy and resolution of global geopotential models have significantly been improved. For example, EGM2008 and EIGEN-6C4 are among the most accurate global geopotential models which have been expanded up to degree 2190. Nevertheless, global geopotential models do not have an adequate accuracy everywhere. Therefore, the local gravity field modeling based on the geodetic boundary value problem approach and the local gravity data has always been an interesting subject. In Iran, first-, second- and third-order gravity networks with the spatial resolutions 30ʹ, 15ʹ, and 5ʹ have been designed for geodetic applications. Now, these important questions arise: (1) How important is the spatial resolution of the ground gravity data in the local modeling? (2) Can local gravity data with any resolution improve the global models? To answer these questions, the effect of the spatial resolution of the Iranian ground gravity data to determine the local geoid based on the geodetic boundary value problem solution by the remove-compute-restore technique is studied. In this line, four regions over Iran with different spatial resolutions are selected as test regions. Region 1 consists of 1738 gravity data with spatial resolution 5.7ʹ, region 2 consists of 165 gravity data with spatial resolution 21.6ʹ, region 3 consists of 234 gravity data with spatial resolution 18ʹ and region 4 consists of 1728 gravity data with spatial resolution 5.7ʹ. Then, the geodetic boundary value problem is separately solved for each region, where the EGM2008 global model up to degrees 360, 720, 1080 and 2160 is used as reference model. Finally, the computed local geoids and the global geoids are compared with the GPS/Leveling geoid. From results we found that the local geoid in the regions 1 and 4 has an accuracy of about 23 cm in terms of the root mean square error (RMSE), while the local geoid in the regions 2 and 3 has an accuracy of about 32 cm. This means that the local geoid in the regions 1 and 4, where the spatial resolution of gravity data is higher, is more accurate than the local geoid in the regions 2 and 3. Moreover, we found that the local geoid of region 1 is more accurate than the global geoids up to degrees 360, 720 and 1080, while the accuracy of the local geoid is consistent with the global geoid up to degree 2160. Such a result is obtained for the region 4. For the regions 2 and 3, the local geoid is more accurate than the global geoid only up to degree 360, while the accuracy of the local geoid is consistent with the global geoids up to degrees 720, 1080 and 2160. This is due to the fact that the spatial resolution of gravity data in the regions 1 and 4 is 5.7ʹ which is equivalent to degree about 2160, while the spatial resolution of gravity data in the regions 2 and 3 are 21.6ʹ and 18ʹ, respectively, which are equivalent to degrees about 500 and 600. Therefore, it is concluded that when the spatial resolution of ground gravity data is lower than the corresponding degree of the reference model, the local geoid does not outperform the corresponding global geoid.
    Keywords: : Local Gravity Field Modeling, Geodetic Boundary Value Problem, Remove-Compute-Restore, Ground Gravity Data, Geoid
  • M. Ghanbari , F. Karimipour* , A. Esmaeili Pages 225-234

    A Wireless Sensor Network (WSN) is composed of sensor nodes that are located within a certain target region, which are capable of monitoring different environmental phenomena such as forest fires detection, leakage pollutants, etc. In a WSN, sensor nodes are distributed across the Region of Interest (ROI). The overall coverage of the region covered by sensor nodes directly influences the efficiency of the network in obtaining useful information. Establishing global coverage in the network using the least number of sensor nodes plays a very important role in reduction of the costs associated with the wireless sensor network. However, coverage holes appear in the study region due to various reasons, such as non-uniform distribution of sensors, node failure and energy dissipation.
    Existing methods to heal the holes in the study area are generally divided into global and local methods. In global methods, prior to distribution of sensor nodes in the desired region, the optimal position of the nodes in order to avoid the occurrence of coverage holes is determined using optimization functions. In local methods, on the other hand, after primary distribution of the sensor nodes in the region, coverage holes are detected and the sensors are then moved locally in order to cover the detected coverage holes. The latter methods are mostly designed based on geometrical structures such as Delauney triangulation and Vorosnoi diagrams.
    This present study focuses on determining optimal locations in order to achieve global coverage in a wireless sensor network. For this purpose, the performance of an existing local method, called tree-based method, in adding new sensors in a wireless sensor network has been evaluated. The results show that, despite the generally acceptable performance of this method, it does not work well in some special configurations of sensors, which is mainly due to lack of attention to the position of the sensors when the sensors are added. Therefore, by combining the tree-base method with a proposed method, called center of gravity method, the results are improved so that it has the ability to properly cover the holes with different sizes and geometrical shapes. Moreover, in the proposed method, before identifying the coverage holes in the area, an improvement phase is applied to improve the configuration of existing sensors after they are randomly distributed in the target area. Here, nearby sensors are moved away in order to prevent the occurrence of large scale coverage holes as well as prevent overlapping coverage of the sensor nodes. Therefore, this phase has an effective operation in creating optimal coverage in the area. Moreover, the results show that the combined method has a better performance compare to the tree-base method, because it covers the region in less iterations and less number of new sensors
    Keywords: Local Gravity Field Modeling, Geodetic Boundary Value Problem, Remove-Compute-Restore, Ground Gravity Data, Geoid