فهرست مطالب

علوم و فنون نقشه برداری - سال ششم شماره 1 (پیاپی 21، تابستان 1395)

نشریه علوم و فنون نقشه برداری
سال ششم شماره 1 (پیاپی 21، تابستان 1395)

  • تاریخ انتشار: 1395/07/29
  • تعداد عناوین: 21
|
  • حسن امامی *، برات مجردی، عبدالرضا صفری صفحات 1-17
    دمای سطح زمین از جمله متغیرهایی است که در دامنه وسیعی از مطالعات علوم زمین و محیط زیست کاربرد دارد. فناوری سنجش از دور، امکان پایش مکانی و زمانی این کمیت را در سطوح وسیع فراهم می آورد. اما ارزیابی دقت این کمیت از مسائل چالش برانگیز بوده و هست. تغییرات سریع دما در مکان و زمان از یک طرف، و عدم تطابق مقیاس مکانی بین سنسورهای ماهواره ای و زمینی از طرفی دیگر، اعتبار سنجی آن را با داده های زمینی دشوار نموده است. علاوه بر اعتبارسنجی این کمیت با داده های زمینی، سه روش دیگر، اعتبار سنجی مبتنی بر رادیانس، ارزیابی غیرمستقیم و اعتبار سنجی تقاطعی بین محصول دو سنجنده، وجود دارد. از بین این روش ها، روش اعتبار سنجی تقاطعی با توجه به گسترش روزافزون سنجنده های حرارتی از معمول ترین روش ارزیابی دقت دمای سطح می باشد. تطبیق زمان، اطلاعات طیفی، مکانی و زاویه دید سنجنده، از نیازهای اساسی روش اعتبار سنجی تقاطعی است. در مقاله حاضر، روشی برای اعتبارسنجی تقاطعی دمای سطح حاصل از لندست 8 با سنجنده های مادیس ارائه شده است. بدلیل برداشت دو بار در هر شبانه روز، توسط هر یک از سنجنده های مادیس، محصول دمای آن بعنوان مرجع انتخاب گردید. محصول دمای مادیس در بیش از پنجاه مورد با روش های مختلف اعتبارسنجی شده و دارای دقت کمتر یک درجه کلوین می باشد. نتایج روش پیشنهادی نشان داد که ارزیابی دقت در مناطق با همگنی بالا، با پارامترهای میانگین اختلاف ها و ریشه میانگین مربع خطا به ترتیب دارای دقت 0.6 و 1.63 درجه کلوین در تصویر بررسی اول بوده و همچنین این مقادیر در تصویر بررسی دوم به ترتیب دارای دقت 0.94 و 1.27 درجه کلوین بدست آمدند. با توجه به نتایج حاصل، روش پیشنهادی نه تنها روش با ثباتی برای ارزیابی دقت دمای سطح می باشد، بلکه این روش برای هر سنجنده حرارتی و برای هر زمان و مکانی قابل اجرا است.
    کلیدواژگان: دمای سطح زمین، اعتبار سنجی تقاطعی، لندست 8، مادیس، تطبیق اطلاعات زمانی، طیفی و مکانی دو تصویر
  • محمد عشقی *، علی اصغر آل شیخ صفحات 19-32
    بررسی کیفیت، از جمله مهمترین چالش های موجود بر سر راه داده های جغرافیایی داوطلبانه می باشد. امروزه، اندازه گیری کیفیت این داده ها عمدتا شامل فرآیندهای مستند کردن و اندازه گیری خطا با کمترین نگرانی در مورد برآورده کردن نیازهای مختلف و متنوع کاربران است. علی رغم طیف وسیع موجود در پذیرش شاخص «تناسب برای هدف» به عنوان المان کلیدی ارزیابی کیفیت اطلاعات جغرافیایی، این شاخص عملا در تولید و به اشتراک گذاری داده ها مورد توجه قرار نمی گیرد. بنابراین، هدف این مقاله، ارائه مدلی مفهومی است که با استفاده از آن بتوان داده های ورودی به پایگاه داده داوطلبانه را به صورت درست و بهینه ذخیره سازی کرد. عوارض جغرافیایی و در نتیجه داده های اخذ شده از آن ها دارای کاربردهای متفاوتی هستند. با توجه به این موضوع، ممکن است کاربرد متفاوتی از داده در هنگام استفاده، مد نظر کاربران براساس نیازهایشان باشد. همچنین، ممکن است که کاربردهای مختلفی از یک داده توسط کاربران مختلف در تولید و ذخیره سازی آن داده، مد نظر باشد. در نتیجه، در این مقاله با طراحی یک مدل مفهومی، سعی در اعمال تمهیداتی در فرآیند ذخیره سازی این نوع از داده ها شده است تا فرصتی برای استفاده بهتر از داده ها ایجاد شود. این کار با تعریف مجموعه برچسب هایی انجام شده است که بیانگر نقش داده در کاربردهای مختلف هستند. در نتیجه، ذخیره سازی داده ها بهبود یافته که می تواند منجر به پردازش و ارائه بهتر داده ها براساس پرسش (نیاز و هدف) کاربر شود. برای پیاده سازی مفهوم پیشنهادی، از الگوریتم اندازه گیری تشابه معنایی Zhao استفاده شده است. داده های موجود و همچنین داده های ورودی جدید، با توجه به مدل مفهومی ارائه شده پردازش و ذخیره می شوند. برای ارزیابی، پاسخ ارائه شده به پرسش های مختلف کاربران در دو پایگاه داده با نوع ذخیره سازی موجود (فعلی) و جدید (با اعمال مدل پیشنهادی) در دو سناریو مقایسه شده است. همچنین نتایج پاسخ های ارائه شده به گروهی از کاربران، بهبود عملکرد پایگاه داده جدید را به میزان بیش از 50 درصد نشان می دهد.
    کلیدواژگان: اطلاعات جغرافیایی داوطلبانه، کیفیت داده، تناسب برای هدف
  • علیرضا رحمتی، آرا تومانیان، نجمه نیسانی سامانی * صفحات 33-46
    حجم بالای داده یک مشکل عمده در وب کنونی به شمار می رود و از طرف دیگر هشتاد درصد داده های موجود نیز دارای بعد مکانی هستند. بنابراین مسئله گرانباری اطلاعات در علوم اطلاعات مکانی نیز چالش برانگیز است. حجم گسترده داده و سرویس های موجود نیز هنگامی مفید است که برای کاربر قابل کشف شدن باشد. در ژئوپرتالها کاربران با مشکلاتی از قبیل انتخاب کلیدواژهای مناسب برای جستجو، چگونگی پرکردن اطلاعات فرم جستجو، انتخاب فیلترهای جستجوی مناسب، روالهای متفاوت جستجو در ژئوپرتالها و غیره که سبب سردرگمی آنها می شود مواجه می شوند. راه حل های بسیار برای حل این مسائل ارائه شده است که اغلب سعی در افزایش توانایی جستجوگری بر اساس کلیدواژه های ارائه شده از سوی کاربر تاکید داشته اند؛ اما همچنان این مشکلات و عدم همسانی ها در ژئوپرتالها وجود دارد. هدف این پژوهش ارتقای عملکرد جستجوگری ژئوپرتالها با افزودن مکانیسم بازیابی اطلاعات جدید در ژئوپرتال است. سیستم های توصیه گر روشی جدید در بازیابی و ارائه اطلاعات به کاربران هستند که روالی مجزا از مکانیسم های جستجوگری موجود در ژئوپرتالها ارائه می دهند. پژوهش حاضر در پی ترکیب سیستم های توصیه گر با ژئوپرتال است. در این صورت می توان نارسایی های موجود در ژئوپرتالها را از طریق ارائه آیتم های پیشنهادی بر اساس پروفایل کاربر و فراداده و استخراج ارتباطات بین آن ها کاهش دهد. در این راستا به منظور استخراج مشابهت های بین پروفایل کاربر و فراداده از هستی شناسی استفاده شده است. سیستم توصیه گر معناگرا بر پایه الگوریتم تجزیه مقادیر تکین SVD)( و تحلیل مشابهت معنایی جهت استخراج آیتم های اطلاعاتی مرتبط و حل مشکل شروع سرد طراحی شده است. برای پیاده سازی ژئوپرتال از پایگاه داده مکانی سازمان راهداری استفاده شده است و طراحی هستی شناسی نیز بر پایه مفاهیم مرتبط در این حوزه بوده است.
    کلیدواژگان: سیستم های توصیه گر، ژئوپرتال، وب معنایی، مشابهت هستی شناسی
  • حمید داودی *، عبدالرضا صفری، وحید ابراهیم زاده اردستانی صفحات 47-57
    هدف از این مقاله استفاده از روش بهینه سازی تصادفی تبرید شبیه سازی شده برای وارون سازی داده های ثقل سنجی و به دست آوردن ویژگی های فیزیکی و به خصوص هندسی منبع به وجود آورنده این داده ها (منبع آنومالی) است. پارامترهای هندسی منبع آنومالی شامل عمق یک سری از منشورهای به هم چسبیده بوده که در نهایت در کنار یکدیگر شکل هندسی منبع را نمایش می دهند و منظور از ویژگی های فیزیکی همان تباین چگالی میان سنگ میزبان و منبع آنومالی است که با توجه به اطلاعات زمین شناسی بازه جستجوی کوچکی برای آن در نظر گرفته شده است. همچنین برای وارون سازی بهتر از پارامترهای آنومالی منطقه ای نیز استفاده شده است به این معنا که ضرایب ثابتی در مختصات نقاط ضرب شده که باعث از بین رفتن اثرات یکنواخت و نسبتا بزرگ آنومالی های سنگ های زمینه (که اندازه گیری آن ها مورد نظر نیست) می شوند. در این پژوهش ضمن به کارگیری روش پیشنهادی بر روی داده های شبیه سازی شده به ارزیابی کارآمدی الگوریتم بر روی داده های حاصل از گرانی سنجی در منطقه امان آباد اراک پرداخته شده و نتایج آن با گمانه های حفر شده در منطقه مذکور مقایسه گردیده است. ارزیابی صورت گرفته نشان دهنده موفقیت الگوریتم در هر دو مرحله می باشد. عمق کمینه و بیشینه اکثر سنگ های رسوبی در منطقه مورد نظر بین 70 تا 120 متر تخمین زده شده است. در نهایت میزان بزرگی تابع هزینه(میزان خطا) در منطقه مورد مطالعه محاسبه شده که حداکثر بزرگی آن حدود 0.5 میلی گال است. لازم به ذکر است که عموما در روش های بهینه سازی غیرخطی عملیات ماتریسی و محاسبه پارامترهای آماری صورت نمی پذیرد و ملاک بررسی عملکرد الگوریتم پیاده سازی آن بر روی داده های شبیه سازی شده است.
    کلیدواژگان: وارون سازی داده های گرانی، تبرید شبیه سازی شده، روش های بهینه سازی، جستجوی تصادفی
  • سارا قدس *، سید وهاب شجاع الدینی، یاسر مقصودی صفحات 59-71
    علیرغم این که داده حالت پلاریمتری کامل اطلاعات بسیار خوبی از اهداف زمینی فراهم می آورد، مشکلاتی از قبیل کافی نبودن عرض پوشش دهی برای اهداف نظارتی و بالا بودن توان ارسالی، حجم داده، هزینه و پیچیدگی سیستم، پژوهشگران این حوزه را به سمت استفاده از حالت پلاریمتری فشرده سوق داد. در این حالت با سعی بر اینکه اطلاعات دریافتی تا حد ممکن به اطلاعات حالت پلاریمتری کامل نزدیک باشد، مشکلات حالت پلاریمتری کامل مرتفع می گردد. با توجه به کاستی هایی که در مقالات پیشین برای تبیین روش بازسازی داده حالت کامل از روی داده حالت فشرده دو دایروی وجود دارد، در این مقاله این روش به طور مبسوط تشریح می شود و فرضیات مطرح شده در این روش مورد بررسی قرار می گیرد و نقاط ضعف هریک با استفاده از نتایج تجربی روشن خواهد شد. برای بازسازی داده حالت کامل از داده حالت فشرده دو دایروی دو فرضیه تقریبی در نظر گرفته می شود که این دو موجب کم شدن دقت بازسازی می گردند. با توجه به این که در سال های اخیر مقالاتی جهت بهبود بازسازی در نواحی اقیانوسی ارائه شده است، در این پژوهش تمرکز اصلی بر روی نواحی شهری و مناطق با پوشش گیاهی قرار داده شده است و فرضیه ای ارائه می شود که نسبت به فرضیات پیشین دقیقتر بوده و در نتیجه دقت بازسازی را بالا می برد. با استفاده از داده های مربوط به سنجنده RADARSAT-2 دقت فرضیات و روش های بازسازی آزمایش شده و برتری روش پیشنهادی نسبت به روش های پیشین نشان داده می شود.
    کلیدواژگان: رادار با روزنه ترکیبی، پلاریمتری حالت کامل، پلاریمتری حالت فشرده، حالت دو دایروی، سنجنده RADARSAT، 2
  • محمدرضا جلوخانی نیارکی *، فخرالدین حاجیلو صفحات 73-86
    استفاده از نیروگاه های بادی به عنوان یکی از مهم ترین روش های تولید انرژی برق با استفاده از انرژی های تجدید پذیر قلمداد می شود. اثرات مخرب زیست محیطی کم نسبت به سایر روش ها و قابلیت بهره برداری در سطح گسترده از جمله مزایای استفاده از انرژی باد در تولد برق است. در همین راستا مطالعه پتانسیل های مربوطه و یافتن مکان های مناسب به منظور استقرار تجهیزات بهره برداری از انرژی باد امری ضروری است. تلفیق سیستم اطلاعات جغرافیایی و روش های تحلیل تصمیم گیری چند معیاره ابزار توانمندی را برای مکان یابی فراهم می نماید. این مدل ها به ما کمک می کنند تا بر اساس معیارهای مختلف مکان های بهینه را برگزینیم. در این مطالعه سعی شده تا با استفاده از مدل های تصمیم گیری چند معیاره تحلیل شبکه ای و روش میانگین وزنی مرتب شده مکان های مناسب برای نیروگاه های بادی بر مبنای معیارهای موثر فنی، زیست محیطی و اقتصادی- اجتماعی در امر مکانیابی نیروگاه های بادی اولویت بندی شوند. در روش تحلیل شبکه ای با برقراری ارتباطات درونی و بیرونی بین معیارها و زیر معیارها و وزن دهی با توجه به اهمیت هر کدام، وزن های نهایی هر یک از معیارها مشخص می شود و همچنین یک عملگر OWA اولویت ها و ارزیابی ذهنی تصمیم گیر را در نظر گرفته و با توجه به میزان ریسک پذیری و ریسک گریزی تصمیم گیر اولویت بندی گزینه ها را انجام می دهد. در واقع اهمیت این مدل، تصمیم گیری بر اساس میزان خوشبینی و بدبینی قرد تصمیم گیر است. در اینجا با مد نظر قرار دادن معیارهای موثر در فرایند مکانیابی نیروگاه های بادی و استفاده از روش تصمیم گیری ANP-OWA گزینه های مختلف به منظور ایجاد نیروگاه های بادی در استان زنجان با توجه به درجات مختلف ریسک پذیری اولویت بندی گریده است. نتایج این پژوهش نشان می دهد به کارگیری مدل ANP نتایج تصمیم گیری را دقیق تر می کند و با استفاده از OWA می توان میزان ریسک را کنترل کرد و نتایج کار با توجه به میزان اعتماد به آن متفاوت خواهد بود.
    کلیدواژگان: نیروگاه بادی، سیستم اطلاعات جغرافیایی(GIS)، تحلیل تصمیم گیری چند معیاره(MCDA)، تحلیل شبکه ای(ANP)، میانگین وزنی مرتب شده(OWA)
  • پرهام پهلوانی *، حسین عسکریان عمران صفحات 87-100
    با توجه به افزایش روز افزون جمعیت و سرعت بالای آن و تاثیر آن در رشد شهری، مطالعه، بررسی، و پیش بینی رشد شهری از موضوعات مهم جامعه امروزی محسوب می گردد. لذا، هدف اصلی این مقاله بررسی و نمایش رشد شهری در سال های اخیر و پیش بینی آن برای سال های آینده می باشد. به این منظور، در این تحقیق، از ترکیب روش شبکه عصبی پیش خورانده با فیلترهای همسایگی استفاده شده است. در این مقاله تنها رشد کاربری ساختمانی به عنوان رشد شهری در نظر گرفته شده است. تصاویر ماهواره لندست در سال های 1994، 2004، و 2014 برای تولید نقشه شهر (ساختمانی و غیر ساختمانی) بکار گرفته شدند. برای طبقه بندی تصاویر و استخراج نقشه از روش ماشین بردار پشتیبان استفاده شد. برای مدل سازی رشد شهری، شبکه عصبی پیش خورانده پیشنهادی در 2 مرحله اجرا شد؛ (1) برای یادگیری و تعیین وزن ها با استفاده از نقشه سال های 1994 و 2004، و (2) به صورت رو به جلو برای پیش بینی نقشه شایستگی برای سال 2014. به منظور پیش بینی نقشه شایستگی با دقت بالا، معماری شبکه عصبی با توجه به کمترین RMSE تعیین گردید. سپس نقشه شایستگی پیش بینی شده با فیلترهای مختلف همسایگی ترکیب و نقشه سال 2014 پیش بینی گردید. دقت روش در دو مرحله تعیین شد. ابتدا دقت نقشه شایستگی پیش بینی شده با استفاده از روش ROC بررسی گشت که دقت حاصل برابر 46/92 درصد بدست آمد. سپس در مرحله دوم میزان تطابق نقشه شهری پیش بینی شده با نقشه مرجع سال 2014 با استفاده از ماتریس مقایسه و با معیارهای دقت کلی و ضریب کاپا به ترتیب 22/92 و 31/82 درصد بدست آمد. در نهایت روش ارائه شده برای پیش بینی نقشه شهری سال 2024 به کار گرفته شد که نتایج حاکی از رشد بی رویه شهر در غرب و جنوب غربی منطقه می باشد.
    کلیدواژگان: شبکه عصبی پیش خورانده، فیلتر همسایگی، گسترش شهری، ROC
  • فهیمه میرمحمدی، محمدرضا جلوخانی نیارکی *، سید کاظم علوی پناه صفحات 101-115
    )، به عنوان بستری که ابزار و توابع مکانی را با تحلیل های چند معیاره ادغام می کنند، نقش مهمی را در تصمیم گیری های مکانی مشارکتی ایفا می کند. در گذشته تحقیقات گسترده ای در زمینه سامانه های تصمیم گیری مکانی مشارکتی انجام گرفته است. در این تحقیقات، تصمیم گیری های مکانی با ارائه گزینه های مکانی ثابت به تصمیم گیران انجام گرفته بود و کاربران صرفا محدود به ارزیابی در بین همان تعداد گزینه ها بودند در حالیکه این تحقیق، تعیین و ترسیم گزینه های مکانی را (بدون اعمال هیچ گونه محدودیتی) و در طی مراحل تصمیم گیری مکانی (نه از قبل) به شخص تصمیم گیرنده واگذار نموده است. با این هدف، اقدام به طراحی و توسعه سامانه ای کاربر محور شده که به تصمیم گیرنده این امکان داده می شود که با تعیین و ترسیم آزادانه گزینه های مکانی، اولویت ها، علایق، دانش و... خود را در فرایند تصمیم گیری مکانی وارد نماید. این امکان به شکل فرایندی دو مرحله ای، محقق می گردد؛ بطوریکه ابتدا تصمیم گیرنده وزن دهی به معیارها (توسط فرایند تحلیل سلسله مراتبی) را انجام میدهد و سپس گزینه ها را ترسیم و مشخص کرده و نهایتا آنها را رتبه بندی می کند. در مرحله دوم، نقشه های راه حل فردی، در یک فرایند ادغام نظرات گروهی (فازی اکثریت) با هم ترکیب و یک مجموعه جواب نهایی بدست می آید. در این راستا، تصمیم گیری مکانی مشارکتی برای انتخاب بهترین مکان جهت احداث سرویس های بهداشتی دائمی در سطح منطقه 1 شهر مشهد توسط گروه تصمیم گیران انجام شد. به عنوان نتیجه می توان گفت رویکرد پیشنهادی این سامانه، با ایجاد راه حلی منعطف، پتانسیل بالایی را برای افزایش کارایی تصمیم گیری های مکانی مشارکتی و افزایش نقش کاربر در فرایند تصمیم فراهم می آورد، به گونه ای که این امر منجر به تصمیمات همه جانبه و دموکراتانه می شود.
    کلیدواژگان: سامانه پشتیبان تصمیم مکانی، تصمیم گیری چند معیاره مشارکتی، سامانه اطلاعات جغرافیایی تحت وب، گزینه های مکانی کاربر محور
  • سمیه عاقل شاه نشین، رحیم علی عیاسپور * صفحات 117-128
    امروزه به واسطه توسعه فناوری، استفاده از سیستم های تعیین موقعیت افزایش چشمگیری داشته است. این ابزار داده های موقعیت را به صورت رشته ای از نقاط مکانی-زمانی به نام خط سیر تولید می کنند. در سال های اخیر تحقیقات مربوط به مدیریت داده های خط سیر، اغلب با تمرکز بر تکنیک های ذخیره سازی/بازیابی، مدلسازی، داده کاوی و کشف دانش از داده های خط سیر بوده است. این مطالعات عمدتا بر جنبه های هندسی داده های خام تاکید داشته اند. با این حال، ما امروزه شاهد گسترش تقاضا در بخش های کاربردی مختلف از ردیابی کالا توسط کشتی های تجاری تا شیکه های اجتماعی، با فهم رفتار (الگوی) معنایی اشیاء در حال حرکت هستیم. الگوهای معنایی نه تنها شامل الگوهای هندسی هستند، بلکه دانش استخراج شده از داده های حرکت و اطلاعات مربوط به حوزه جغرافیایی و کاربردی را نیز شامل می شوند. فرآیند کشف دانش از داده های حرکت و غنی سازی معنایی خطوط سیر مکانی معمولا شامل چند گام پردازش است تا داده های ورودی خام به اپیزودهای معنی دار تبدیل شوند. این مقاله، ضمن ارائه چارچوب محاسباتی خط سیر معنایی، به بررسی و پیاده سازی هر یک از مراحل برای آماده سازی داده ها به منظور کشف دانش و اضافه کردن معنا به داده ها می پردازد. در این کار، فرآیند پردازش داده ها در هر گام چکیده سازی به ترتیب با داده های خام پاکسازی شده، خط سیر مکانی-زمانی و خط سیر ساختاریافته مورد بررسی قرار گرفته است و الگوریتم های ارائه شده روی داده های واقعی خط سیر پیاده سازی و ارزیابی شده است.
    کلیدواژگان: خط سیر مکانی، داده کاوی و کشف دانش، غنی سازی معنایی، فشرده سازی
  • شهرام شریفی هشجین *، علی درویشی بلورانی، صفا خزایی صفحات 129-139
    در دهه های اخیر مطالعات بسیاری در زمینه آشکارسازی هدف در تصاویر ابرطیفی انجام شده است. این در حالیست که در زمینه آشکارسازی هدف مطالعات کمتری نسبت به حوزه طبقه بندی جهت کاهش ابعاد و انتخاب باندهای مناسب انجام شده است. از طرفی در پردازش داده های سنجش از دور، انتخاب باند در حوزه پردازش تصاویر ابرطیفی نقش بسیار مهمی دارد. چرا که از مجموعه تمام باندهای تصویر، بهترین آنها را از لحاظ ارزش و تنوع اطلاعاتی جهت کاهش ابعاد داده و کاهش بارمحاسباتی انتخاب می شوند. این مطالعه یک روش ساده برای انتخاب باندهای مناسب به منظور آشکارسازی اهداف زیرپیکسل از طریق حذف باندهای بد ارائه می نماید. این روش بر مبنای شناسایی باندهای بد از طریق مقایسه طیف آزمایشگاهی و میدانی اهداف استوار است. در این روش با برازش یک تابع توزیع نرمال بر روی مقادیر اختلاف دو طیف آزمایشگاهی و میدانی در باندهای متناظر، باندهای بهینه شناسایی و جهت ورود به روش های آشکارسازی هدف معرفی می شوند. جهت ارزیابی روش ارائه شده از مجموعه داده ابرطیفی TDBT ، چند روش انتخاب باند دیگر و پارامتر ارزیابی هشدار اشتباه استفاده شد. روش ارائه شده توانست نتایج آشکارسازی برای اهداف مختلف را در دو روش مطرح و متداول آشکارسازی هدف به نام های ACE و CEM بهبود ببخشد. در مجموع از میان تمام اهداف مورد ارزیابی تنها در 12 درصد از موارد دقت آشکارسازی کاهش یافت. سرعت بالا، سادگی، بار محاسباتی پایین و زمان کوتاه پردازش از مزایای روش ارائه شده است.
    کلیدواژگان: تصاویر ابرطیفی، آشکارسازی هدف، انتخاب باند، طیف هدف
  • اسما خیری، فرید کریمی پور *، محمد فرقانی صفحات 141-158
    امروزه علوم شهری و رفتاری در حال تجربه ی دوره ی جدید تحت عنوان دوره ی داده های عظیم است. با توسعه ی هم زمان تکنولوژی های ارتباطاتی و اطلاعاتی و تکنولوژی های مکان مبنا، یک حجم غیر قابل پیش بینی از داده تحت عنوان داده های عظیم، تولید شده و هر روز نیز به آن افزوده می شود. این مجموعه های عظیم اطلاعاتی مرتبط با رفتار انسان، به محققان اجازه می دهد که رفتارهای تحرک و تعامل انسان ها را با دقت بی سابقه ای مطالعه نمایند و بر این اساس به الگوهای جابجایی افراد بین مناطق مختلف جغرافیایی دست یابند. در این میان، شبکه های اجتماعی مکان مبنا که یک مفهوم جدید از رسانه های اجتماعی روی خط می باشند، دارای پتانسیل بالا برای تولید داده هایی با دقت مکانی و زمانی بیشتر، اندازه نمونه بزرگ تر و هزینه بسیار پایین تر می باشند. داده های حاصل از این شبکه ها یکی از مدرن و به روزترین منابع داده ای است که امروزه مورد توجه محققین در موضوع مدیریت شهری قرار گرفته است و به آن ها اجازه می دهد تا سه جنبه ی مهم تحرک و تعامل انسان شامل: مکان، زمان و ارتباطات اجتماعی را مورد بررسی قرار دهند. در این تحقیق ضمن تشریح و بررسی عملکرد دو مدل تابشی و PWO به منظور برآورد ماتریس مبدا-مقصد تلاش شده است که با توسعه این مدل ها به منظور استفاده از اطلاعات قابل استخراج از داده های شبکه های اجتماعی مکان مبنا به عنوان پارامترهای ورودی این دو مدل، الگوهای حرکتی بین مناطق مختلف شهری شناسایی و ماتریس مبدا-مقصد بهینه استخراج گردد. نتایج ارزیابی ماتریس مبدا-مقصد مدل شده نشان می دهد که سفرهای پیش بینی شده حدود 70% سفرهای واقعی را بازسازی می نماید. این امر پتانسیل بالای داده های شبکه های اجتماعی مکان مبنا را در شناسایی رفتار حرکتی شهروندان و مدل سازی حرکت جمعیت پویای شهری اثبات می کند.
    کلیدواژگان: شبکه های اجتماعی مکان مبنا، داده های نقطه، مکان، الگوهای حرکتی، ماتریس مبدا، مقصد
  • سعید نادی *، محمدرضا دلاور صفحات 159-169
    زمان و مکان جزء غیر قابل تفکیک هر پدیده در دنیای واقعی می باشد. از آنجائیکه در سیستمهای اطلاعات مکانی، مدلسازی پدیده های مکانی اولین گام در پردازش و تحلیل آن پدیده ها می باشد، افزودن قابلیتهای لازم به منظور شامل شدن بعد زمان در مدلسازی ها امری اجتناب ناپذیر می باشد. یکی از نیازهای اصلی در مدلسازی مکانی-زمانی پدیده ها ایجاد قابلیت بررسی روابط توپولوژیک زمانی-مکانی بین پدیده ها برای تحلیل ارتباط مکانی و زمانی آنها می باشد. بر این اساس در این مقاله ضمن تبیین انواع ابعاد زمان، با استفاده از یک روش ابتکاری کلیه روابط بین ابعاد مختلف زمان استخراج شده است. این روابط بدست آمده شامل سه رابطه بین دو رویداد زمانی، شش رابطه بین یک رویداد و یک حالت زمانی و 13 رابطه بین دو حالت زمانی می باشند. سپس با تلفیق این روابط با روابط توپولوژیک مکانی، 104 رابطه توپولوژیک مکانی-زمانی بین دو عارضه سطحی با زمان حضور خطی بدست آورده شدند. مزیت این روش نسبت به روش های دیگر، استفاده از یک فرآیند قاعده مند در بررسی روابط توپولوژیک زمانی می باشد که تضمین می کند کلیه حالات ممکن برسی شده و همه روابط ممکن استخراج شوند. در نهایت بکارگیری موثر از این روابط در مدیریت زمین و املاک با پیاده سازی یک سیستم نمونه تشریح شده است.
    کلیدواژگان: سیستمهای اطلاعات مکانی، روابط توپولوژیک مکانی، زمانی، مدیریت زمین و املاک، پرسشهای مکانی، زمانی
  • طلوع سیلاوی *، فرشاد حکیم پور، فرشاد نوریان صفحات 171-183
    مسئله معناها در جنبه های مختلفی از مدیریت و تحلیل داده های مکانی اهمیت پیدا می کنند. در این تحقیق معانی مرتبط با بعد مکانی را به دو سطح مرتبط با هندسه و مکان عوارض به صورت منفرد و مرتبط با ترکیب و چینش عوارض در کنار هم تفکیک می نماییم. سطح دوم معانی مکانی-هندسی به دلیل وابستگی به روابط مکانی بین عوارض از پیچیدگی های خاصی برخوردارند. بر این اساس و با هدف صریح سازی اینگونه معانی در داده های مکانی، قابلیتها و محدودیتهای پایگاه های داده رابطه ای مکانی بررسی گردیده و در مقابل قابلیتهایی از پایگاه های داده غیر رابطه ای تکنولوژی های وب معنایی به عنوان راهکار ارائه می گردند. مهمترین محدودیتهای بحث شده در این مقاله عبارت از عدم انعطاف طرح پایگاه داده، عدم انعطاف داده ها، عدم امکان تعریف زیر موجودیت، عدم صریح بودن معانی روابط و عدم امکان بینهایت بودن اتصالات بین جدولی می باشند. پایگاه های داده وب معنایی با ساختاری مبتنی بر گراف قادر به ارائه همزمان بخشی از محاسن پایگاه های داده منطقی، پایگاه های داده شیءگرا و پایگاه های داده شبکه ای می باشند که این موضوع مهمترین کارایی آنها می باشد. در نهایت قابلیتهای مورد نظر برای صریح سازی مفهوم «بافت فرسوده شهری» استفاده گردید. این مفهوم که ماهیتی کاملا غیر هندسی-مکانی دارد بر اساس نشانه هایی که در فرمهای شهری داشته است دارای دو تفسیر کاملا مکانی-هندسی ریزدانگی و نفوذپذیری می باشد که می توانند منجر به صریح سازی نسبی آن در پایگاه های داده مکانی گردند.
    کلیدواژگان: تکنولوژیهای وب معنایی، معانی مکانی، پایگاه داده مکانی، بافت فرسوده
  • سیمین سادات میروهابی، رحیم علی عباسپور * صفحات 185-198
    در سال های اخیر، اطلاعات مکانی داوطلبانه به سرعت توسعه یافته و به عنوان منبع جدید و مهمی برای تامین اطلاعات مکانی مورد توجه قرار گرفته است. در آغاز، این اطلاعات فقط در دو بعد به اشتراک گذاشته می شدند؛ ولی با گذشت زمان، کاربران به جمع آوری و ثبت اطلاعات در بعد سوم نیز روی آوردند. OSM یکی از پروژه های مهم در زمینه اطلاعات مکانی داوطلبانه است که تاکنون برای استخراج مدل سه بعدی از اطلاعات آن تلاش های بسیاری صورت گرفته است. در تحقیق پیش رو، الگوریتمی برای استخراج خودکار اطلاعات سه بعدی از داده های موجود در پایگاه داده OSM و ایجاد مدل سه بعدی از داده های در سطح 4 جزئیات ارائه شده است. خروجی این روش مدل سه بعدی ساختمان ها در فرمت CityGML است که قابلیت استفاده به عنوان ورودی برای سایر تحلیل های مکانی را دارد. الگوریتم پیشنهادی به زبان جاوا و با نرم افزارNetBeans نوشته شده است. روش مذکور از حداقل اطلاعات معنایی ورودی برای ایجاد مدل سه بعدی استفاده می کند. این الگوریتم به ایجاد هرچه واقعی تر مدل سه بعدی از اطلاعات داوطلبانه مردمی پرداخته و سازگار با اطلاعات ساختمانی بومی ایران می باشد و از نتایج حاصل از آن می توان برای توسعه ی مجازی سه بعدی شهر ها مبتنی بر اطلاعات VGI بهره شایانی برد.
    کلیدواژگان: مدلسازی سه بعدی، اطلاعات مکانی داوطلبانه، OSM، CityGML، سطح جزئیات ساختمان
  • جواد سلاجقه *، فرشاد حکیم پور، علی اسماعیلی صفحات 199-213
    استفاده از روش های داده کاوی مکانی یا درون یابی مکانی و روش های مقایسه ای وزن دار می تواند نقش تعیین کننده و موثری در تعیین و تخمین میزان مطلوبیت های محلی شاخص های مختلف موثر در قیمت گذاری املاک داشته باشد. در این تحقیق عوامل موثر در قیمت املاک به چهار دسته کلی عوامل اقتصادی و بازاری، عوامل فیزیکی و رفاهی، ویژگی های همسایگی و دسترسی و ویژگی های سازمانی تقسیم می شود. عوامل یا ویژگی های سازمانی بعنوان یک گروه موثر از شاخص ها در تعیین قیمت املاک در این تحقیق معرفی می شود. اطلاعات مربوط به این ویژگی ها از ادارات و سازمان های مربوطه جمع آوری می شود و می تواند کمک قابل توجهی به کاربران مختلف درگیر در بخش املاک شامل خریداران، فروشندگان، بنگاه های معاملات املاک و دولت در قیمت گذاری، بازاریابی و مدیریت املاک به حساب آید. طبقه بندی ارائه شده با فرض ثابت ماندن عوامل اقتصادی و بازاری در زمان درخواست کاربر و بر اساس کمیت و کیفیت تاثیر هر شاخص در نهایت به سه گروه شاخص های Boolean، Multi-Valueو Fuzzy/Logarithmic تقسیم می شود. در این تحقیق از روش های داده کاوی مکانی و ضرائب مقایسه ای وزن دار برای اطلاعات جمع آوری شده در زمان درخواست کاربر در یک محیط مردم گستر و بصورت تعاملی استفاده شده است. با بکارگیری این روش ها ضرائب تاثیر و توابع تاثیر هر شاخص به کمک طبقه بندی و گروه بندی اطلاعات مختلف جمع آوری شده بدست می آید. برای این منظور اطلاعات مربوط به قیمت و ویژگی های تعداد 150 ملک واقع در محدوده مطالعاتی تحقیق جمع آوری و عملکرد سیستم برای آنها بررسی شده است. با توجه به نتایج بدست آمده شاخص های Boolean و Multi-Value با نظم و روند مشخص تر و قابل پیش بینی تری نسبت به شاخص های Fuzzy/Logarithmic بدست آمدند. در نهایت برای ارزیابی قیمت های بدست آمده توسط سیستم برای تعداد 10 ملک مشخص با قیمت واقعی آنها مقایسه شده و دقت های مورد نظر محاسبه و مورد بحث قرار گرفته است.
    کلیدواژگان: داده کاوی مکانی، ضرائب مقایسه ای وزن دار، ضرائب و توابع تاثیر، مطلوبیت های محلی
  • مهرداد بیجندی *، محمد کریمی صفحات 215-233
    سکونتگاه های غیررسمی غالبا به دلیل رشد بی رویه و بدون برنامه ریزی از وضعیت کالبدی مناسبی برخوردار نمی باشند. شبیه سازی رشد سکونتگاه های غیررسمی می تواند منجر به درک بهتر پیچیدگی فرایند و نحوه شکل گیری مکانی آن شود. مدلهای عامل مبنا دارای توانایی ذاتی مدلسازی رفتار و اثرات متقابل عاملها بر یکدیگر می باشند و یک چارچوب ایده آل را برای مطالعه فرایند رشد سکونتگاه های غیررسمی فراهم می سازند. فشردگی قطعات در این گونه بافت ها زیاد است و جهت شکل گیری قطعات نیز نامشخص و بر اساس جهت معابر متغیر می باشد، لذا انتخاب واحد مکانی مناسب در این مسئله به عنوان یک چالش جدی فراروی تحلیلگران قرار دارد. در این تحقیق ابتدا برای شبیه سازی رشد محلی سکونتگاه های غیررسمی، مدلی عامل مبنا توسعه داده شده است و سپس حساسیت خروجی مدل توسعه داده شده نسبت به شکل و اندازه قطعات زمین مورد بررسی دقیقتر قرار گرفته است. در این تحقیق، قطعات تفکیکی زمین در 20 سناریوی مختلف با اشکال متداول مربع و مستطیل در مساحتهای متنوع و همچنین به صورت شبکه ای منظم از سلولها در دو اندازه مختلف تولید شدند و تاثیر واحد مکانی مبنا در این مسئله مورد تجزیه و تحلیل قرار گرفت. مجموعه سناریوهای مذکور برای یکی از سکونتگاه های غیررسمی شهر کاشان پیاده سازی شدند. ارزیابی نتایج نشان داد که دقت کلی نتایج اجرای مدل با قطعات زمین مستطیل با مساحت 50 تا 150 مترمربع نسبت به واحد مکانی مربع بهبود نسبی پیدا کرده است و دقت کلی مدلهای شبه رستری نیز نسبت به حالت برداری کاهش معناداری پیدا کرده است.
    کلیدواژگان: مدلسازی عامل مبنا، سکونتگاه های غیر رسمی، واحد مکانی، آنالیز حساسیت، مدل داده
  • سعید محمد نژاد نیازی *، مهدی مختار زاده، فاطمه سعید زاده صفحات 235-248
    هدف اصلی روش های ادغام، تولید تصویری جدید حاوی اطلاعاتی است که به طور کامل محتویات تصاویر مرجع را دارا باشد. با این وجود روش های ادغام تصاویر معمولا با اعوجاجات طیفی و مکانی در تصویر خروجی همراه هستند. میزان این اعوجاجات با توجه به روش و نیز داده های مورد استفاده متغیر است. در میان روش های ادغام تصاویر موجود، روش IHS یکی از پرکاربردترین الگوریتم ها به علت کارایی بالا و نیز بالا بودن دقت مکانی است. بر طبق مطالعات گذشته، زمانی که این روش روی تصاویر ماهواره ای با قدرت تفکیک مکانی بالا اجرا می گردد، اعوجاجات فراوانی به علت تفاوت طول موج های ثبت شده تصویر پانکروماتیک پدید می آید. این در حالی است که مقادیر درجه خاکستری مناطق حاوی گیاهان در تصویر پانکروماتیک بسیار بیشتر از این مقادیر در تصویر شدت است. روش جدید پیشنهادی قدرت سرشکن کردن اعوجاجات مکانی روی تصویر شدت در مناطق گیاهی را دارا است. به همین منظور جهت انجام این موضوع از شاخص گیاهی نرمال شده تفاضلی جهت شناسایی مناطق حاوی پوشش گیاهی استفاده شد. در طی این فرآیند باند سبز به وسیله ترکیبی از باند قرمز و NIR بهبود داده شد. در ضمن در روش ارائه شده در این مقاله از الگوریتم بهینه سازی ژنتیک برای به دست آوردن بهترین پارامترهای وزن تصویر شدت استفاده شد. آنالیزهای بصری و آماری حاکی از این مطلب بود که روش مورد بحث در این مقاله توانسته است کیفیت تصویر ادغام شده را نسبت به خروجی روش های مرسوم بهبود دهد. دقت روش مورداستفاده توسط معیارهای اندازه گیری کیفیت طیفی و مکانی مورد ارزیابی قرار گرفت. پیاده سازی روی سه مجموعه تصویر با قدرت تفکیک مکانی بالا شامل IKONOS، QuickBird و WorldView-2 صورت پذیرفت و نتایج نشان داد که روش پیشنهادی قابل رقابت با دیگر روش های ادغام تصویر است.
    کلیدواژگان: روش های ادغام تصویر، روش ادغام IHS، روش ادغام IHS، GA، مناطق بهبودیافته گیاهی
  • سحر دهنوی، یاسر مقصودی *، محمد جواد ولدان زوج صفحات 249-262
    آشکارسازی اهداف جزء پیکسل با بهره مندی از تصاویر ابرطیفی، تاکنون رشد چشمگیری داشته است به نحوی که انواع متفاوتی از روش های مبتنی بر فضاهای ویژگی، طیف یا پدیده در مطالعات متعدد ارائه شده اند. اهداف معدنی، با توجه به گستره حضور آنها که معمولا کمتر از سطح کامل یک پیکسل تصویری است، از انواع تارگتهایی هستند که آشکارسازی آنها بر مبنای تصاویر ابرطیفی از اهمیت ویژه ای برخوردار است. هدف اصلی در این کار پژوهشی، ارائه یک روش آشکارسازی جدید مبتنی بر ترکیب اطلاعات طیف و مشتق منحنی طیفی است که در یک منطقه معدنی مورد بررسی قرار خواهد گرفت. در این کار ابتدا، یکی از مراتب مشتق به عنوان مرتبه مناسب در آشکارسازی به عنوان دانش اولیه به مدل وارد می شود. با توجه به اینکه استفاده از طیف مشتق ماهیتا موجب از بین رفتن اجزاء فرکانس پایین طیف می شود. لذا، اگر بتوان به طریقی اطلاعات طیف معمولی را نیز در کنار مزیتهای موجود در طیف مشتق به نحوی به فرآیند پردازش اطلاعات اضافه کرد، به این ترتیب می توان ادعا کرد که به صورت همزمان از اکثریت اطلاعات موجود در منحنی طیفی یک تارگت استفاده شده است. بنابراین در این کار پژوهشی، از ترکیب اطلاعات طیف مرتبه صفر و طیف مشتق منتخب، جهت آشکارسازی تعدادی هدف معدنی استفاده شد. نتایج این مطالعه، نشان داد که ترکیب اطلاعات طیف و مشتق در آشکارسازی تمامی نمونه های مورد مطالعه بهبود چشمگیری ایجاد کرده است. به نحوی که این بهبود به ترتیب در نمونه های آلونیت، کائولینیت، هماتیت و اپیدوت برابر با 28 %، 24%، 26 % و 16 % برآورد شده است.
    کلیدواژگان: مشتق منحنی طیفی، داده های ابرطیفی، ترکیب اطلاعات طیف، آشکارسازی اهداف
  • نورالله تتر *، محمد سعادت سرشت، حسین عارفی صفحات 263-274
    تصاویر اپی پولار تصاویر ترمیم شده ای هستند که در آن ها هر سطر در تصویر چپ با همان سطر در تصویر راست متناظر است؛ این باعث افزایش سرعت تناظریابی و کاهش فضای جستجو از دوبعدی به یک بعدی می شود. برای استفاده از الگوریتم های تناظریابی سراسری مانند تناظریابی شبه سراسری، بایستی تصاویر اپی پولار ایجاد شوند. برخلاف تصاویر با هندسه ی پرسپکتیو، هندسه ی اپی پولار در تصاویر آرایه خطی ماهواره ای یک خط مستقیم نیست. در این مقاله برای خطی شدن هندسه ی اپی پولار در تصاویر استریو ماهواره ای با توان تفکیک بالا، تصاویر اولیه به کاشی های کوچک تصویری تقسیم بندی می شوند. همچنین در هم مرجع سازی تصاویر اولیه و کاشی ها، برای جلوگیری از نیاز به اطلاعات زمین مرجع؛ مانند توابع رشنال و تصحیحات آن ها، از الگوریتم های بینایی کامپیوتر استفاده می شود. نتایج اندازه گیری پارالاکس عمودی (پارالاکس «y») در تصاویر اپی پولار بدست آمده از تصاویر سنجنده ی GeoEye-1 نشان می دهد، روش پیشنهادی توانایی ایجاد تصاویر اپی پولار با دقت زیر پیکسل را دارد.
    کلیدواژگان: تصاویر اپی پولار، تصاویر استریو ماهواره ای با توان تفکیک بالا، کاشی های کوچک تصویری، تناظریابی شبه سراسری، توابع رشنال
  • مسعود مشهدی حسینعلی *، مصطفی خوش منش صفحات 275-291
    پیرو درخواست شهرداری تهران و به منظور تامین نیاز پروژه های مختلف در دست اجرا در این سازمان به اطلاعات مکانی، شبکه آنی کینماتیکی برای شهر تهران طراحی شده است. بر اساس معیار های موجود نظیر ضریب دقت موقعیت دو طرح متفاوت پیشنهاد و مقایسه شده است. هر دو طرح پیشنهاد شده شامل 6 ایستگاه مجهز به سامانه های تعیین موقعیت و ناوبری ماهواره ای (GNSS) می باشد. برخلاف طرح شماره 1، طرح شماره 2 پیشنهادی پوشش بهتری را در سطح شهر تامین می کند. برای انتخاب طرح بهینه، اثر خطاهای وابسته به فاصله به همراه سایر معیار های مورد توجه در طراحی شبکه های ژئودزی ماهواره ای در دو طرح پیشنهاد شده مطالعه شده است. برای این منظور از اطلاعات آلماناک ماهواره های GNSS همراه با محصولات جهانی یونوسفری سرویس بین المللی GPS برای مطالعات ژئودینامیک (IGS GIM) و اطلاعات هواشناسی ثبت شده در ایستگاه های سینوپتیکی که در نزدیکی شهر تهران بوده و یا در آن قراردارند استفاده شده است. بر اساس بررسی های انجام شده تاخیر تروپوسفری تنها پارامتری است که از نقشی قابل توجه در طرح هندسی این شبکه برخوردار می باشد. مطالعه تاخیر تروپوسفری در شهر تهران، طرح شماره 2 را به عنوان طرح بهینه توصیه می کند. مشاهداتGNSS انجام شده در محل نقاط این طرح ارزیابی معیار های طراحی بکار رفته در این مقاله را امکان پذیر کرده است. از دو روش تست برای ارزیابی کارایی شبکه تعیین موقعیت آنی طراحی شده استفاده شده است. در روش نخست موقعیت تعدادی از نقاطی که در محدوده شهر تهران قرار دارند به روش های تعیین موقعیت استاتیک و کینماتیک تعیین شده است. در تعیین موقعیت این نقاط به روش کینماتیک از روش های محاسبه و الگوریتم های انتشار مختلفی شامل FKP، MAX و i-MAX استفاده شده است. در روش دوم از نقاط شمالی و مرکزی شبکه به عنوان نقاط تست استفاده شده است. به عبارت دیگر، در این روش برای محاسبه تصحیحات شبکه از مشاهدات این دو ایستگاه استفاده نشده است. در ادامه تکرارپذیری، دقت و صحت مختصات تعیین شده به روش تعیین موقعیت کینماتیک برای این دو نقطه محاسبه و بررسی شده است. نتایج ارزیابی های مذکور کارایی روش مورد استفاده در طراحی این شبکه را تایید می کند. در تعیین موقعیت آنی با این شبکه می توان به مختصاتی با صحت 1 تا 3 سانتی متر در مولفه های مختصاتی مختلف و در محدوده تحت پوشش این شبکه رسید. برای نقاطی که خارج از محدوده تحت پوشش این شبکه قراردارند، دستیابی به مختصاتی با این صحت، به ویژه در مولفه ارتفاعی امکان پذیر نیست. این محدودیت ناشی از تاثیر تاخیر تروپوسفری بر مشاهدات مربوطه است.
    کلیدواژگان: طراحی شبکه، تعیین موقعیت آنی کینماتیک، سیستم های تعیین موقعیت و ناوبری ماهواره ای
  • محمد احمدلو، محمودرضا دلاور *، امین طیبی صفحات 292-303
    به عنوان اولین هدف برای این مقاله، دو مدل از دو گروه مختلف از روش های داده کاوی یعنی مدلهای پارامتریک کلی، درخت طبقه بندی و رگرسیون و مدلهای غیر پارامتریک محلی، شبکه عصبی مصنوعی، برای مدلسازی تغییرات کاربری اراضی چندگانه مورد مقایسه قرار گرفت. منطقه مورد مطالعه شامل دو شهر ساری و قائم شهر است که در شمال ایران واقع شده اند. در این مطالعه تغییرات کاربری اراضی کشاورزی و شهری برای یک دوره 22 ساله بین سالهای 1992 تا 2014 مورد بررسی قرار گرفت. نتایج نشان داد که هر دو مدل روش هایی دقیقی برای مدلسازی تغییرات کاربری اراضی چندگانه می باشند. با وجود اینکه نتایج حاصل از درخت طبقه بندی و رگرسیون تفسیر پذیرتر هستند اما دقت شبکه عصبی مصنوعی بهتر از این مدل می باشد. در مطالعات قبلی علیرغم استفاده از درخت طبقه بندی و رگرسیون، تحلیل حساسیت و استخراج محرکان تغییرات کاربری اراضی مهم مورد توجه قرار نگرفته است. در حالیکه انجام این تحلیل، متغیرهایی که در تغییرات کاربری اراضی بی تاثیر هستند را از فرآیند مدلسازی حذف می نماید. لذا انجام تحلیل حساسیت با استفاده از شاخص اهمیت متغیرها به عنوان هدف دوم این مطالعه در نظر گرفته شد. در حالیکه شبکه عصبی مصنوعی به صورت یک جعبه سیاه در تحلیل حساسیت عمل نمود، درخت طبقه بندی و رگرسیون محرکان اصلی تغییر کاربری اراضی چندگانه را به سادگی شناسایی نمود. نتایج حاصل از این تحلیل نشان داد که فاصله از مناطق شهری و رودخانه مهمترین پارامترها در تغییرات کاربری اراضی می باشند. هدف سوم این مقاله مقایسه دو شاخص ارزیابی دقت، شاخص عامل نسبی و شاخص عامل کلی جهت ارزیابی درخت طبقه بندی و رگرسیون و شبکه عصبی مصنوعی می باشد. مساحت زیر نمودار شاخص عامل نسبی برای تغییرات کاربری های شهری و برای دو مدل شبکه عصبی مصنوعی و درخت تصمیم گیری به ترتیب برابر با 78% و 75% بدست آمد. همچنین مساحت زیر نمودار شاخص عامل نسبی برای تغییرات کاربری های کشاورزی برای دو مدل شبکه عصبی مصنوعی و درخت طبقه بندی و رگرسیون به ترتیب برابر با 72% و 65% بدست آمد. همچنین نتایج نشان داد که اگرچه نمودار شاخص عامل کلی و شاخص عامل نسبی خیلی شبیه به هم است، با این حال شاخص عامل کلی حاوی اطلاعات بیشتری نسبت به شاخص عامل نسبی است. نتایج حاصل از این مطالعه می تواند مدیران و تصمیم گیران محیط زیست را در حفظ منابع طبیعی و برنامه ریزی برای آینده با شناخت محرکان تغییر کاربری اراضی یاری کند.
    کلیدواژگان: درخت طبقه بندی و رگرسیون، شبکه عصبی مصنوعی، شاخص اهمیت متغیرها، تغییرات کاربری اراضی چندگانه شاخص عامل نسبی، شاخص عامل کلی
|
  • H. Emami *, B. Mojaradi, A. Safari Pages 1-17
    Land surface temperature (LST) is one of the key parameters in a wide range of geosciences and environmental studies. Remote sensing technology, can monitor the space and time variations of this quantity in large areas. But evaluating the accuracy of this parameter is the most challenging issues. On the one hand, rapid changes in temperature occur in space and time and the mismatch between the spatial scale of satellite and ground-based sensors, validation of LST is difficult by ground based temperature data. Validation is a process of independently assessing the uncertainty of the data derived from the system outputs. Without validation, no methods, algorithms, or parameters derived from remotely sensed data can be used with confidence. As the retrieved LSTs from satellite TIR data involve corrections to the satellite-observed radiances to account for atmospheric effects and non-unity LSEs, it is necessary to assess the accuracy of the retrieval to provide potential LST users with reliable information regarding the quality of the LST product. However, validation of satellite-derived products is often a challenge in itself. This is true for the sensors having a coarse resolution and even more with the thermal bands over land. Although many algorithms have been proposed and developed over recent decades to retrieve the LST from satellite TIR data, validation of satellite-derived LSTs remains far behind the development of new LST retrieval algorithms due to the difficulties. The important difficulties including: (i) it is difficult to obtain representative LST data at the scale of a pixel, which usually covers an area of about several square kilometers, due to the spatial variability of landscape and the large spatial–temporal variations in the LST itself. (ii) The other difficulty concerns the temporal sampling. Surface temperature is characterized by a very high temporal frequency. In a matter of seconds, the surface skin temperature may change by several degrees due to wind, shadow, etc. Generally, ground radiometers often integrate the temperature over several minutes, but the sensor onboard the satellite acquires the data in a fraction of a second. (iii) In addition, it is difficult to conduct in situ LST measurements at local scale, because LST, LSE, and the atmospheric and environmental radiances are coupled. Therefore, to obtain LST, one has to measure simultaneously the atmospheric and environmental radiances and the LSE, which is time-consuming and hard to monitor. Although there exist many problems and difficulties in the validation of the LST derived from satellite TIR data, in recent years, many efforts and studies have been performed to validate the derived LSTs from different satellite sensors. The methods utilized to validate LST values retrieved from space may be roughly grouped into four categories: the temperature-based method (T-based), the radiance-based method (R-based), the cross-validation method, and the indirect validation method. Among these methods, due to development of thermal sensors, cross-validation procedure is the most common method to evaluate the accuracy of surface temperature. Due to the large spatial and temporal variations in the LST, geographic coordinate matching, time matching, and view zenith angle matching are basic requirements of the cross-validation. In this paper, an alternative scaling method was proposed for cross-validation between LST product of LDCM and MODIS sensors. Because of the wide coverage and taken LST product twice per day by each of the MODIS sensors (Terra and Aqua), this product was selected as the reference temperature. The LST products of MODIS sensors have been validated with in situ measurements and by various methods in more than 50 clear-sky cases taking into account the higher accuracies within 1 °K for both Terra and Aqua. The results of the proposed method showed that evaluation of LST accuracy in areas with high homogeneity and in the first examined LDCM scene, in terms of mean differences and mean absolute differences measures, is 0.6 °K and 1.63 °K, respectively. For the second examined LDCM scene, the accuracy measures were 0.94 °K and 1.27 °K in the LST, respectively. Generally, the experimental results on two LDCM data demonstrated that the proposed cross-validation method not only is a robust and accurate LST validation approach, but also it is applicable for each thermal sensor and every time and place.
    Keywords: Land Surface Temperature_Cross_Validation_Landsat 8 (LDCM)_MODIS_Time Matching_Spectral_Spatial Matching
  • M. Eshghi *, A. A. Alesheikh Pages 19-32
    Quality assessment is one of the most important challenges on the way of Volunteered Geographic Information – VGI. Nowadays, assessing VGI data quality mainly includes documenting and measuring errors with no concern about satisfying various needs of users. Despite the widespread acceptance of “Fitness-for-Use” as one of the key quality elements of VGI data, it is not considered practically in producing as well as sharing of VGI data. Therefore, the aim of this paper is to present a conceptual model so as to consider this indicator as a key to better storage of data. Geographical features and the acquired data from them have different applications; for instance, a road could have roles in both Navigation and Emergency Management applications. With this in mind, various kind of data applications would be considered by different users at the time of using them according to their needs. What is more, it is possible that different applications of data at the time of producing as well as storing data have been considered by different users. Consequently, an acquired data about an object may be stored more than once with different attributes (labels related to applications), or no consideration of other possible applications of data. This will result to redundancy and incomplete attribute of those data, respectively. Therefore, in this paper by designing a conceptual model – which is inspired by CityGML concepts – it is tried to apply some preparation in the process of storing this type of data as comprehensive as possible, of course without inconsistency, so as to make an opportunity for better as well as optimal use of them. This is done by considering a set of labels which represent roles of a specific data in different applications. By doing so, if a user just considers a single application of a data at the time of storing, other application will automatically detect and attached to the data. For example, a single linear object could be considered as Primary road, Arterial road as well as Highway. As a result, data storage will be improved, which can be led to better processing and better presenting data as a response to the users’ queries – needs and purposes. To implement the proposed conceptual model, the Zhao’s semantic similarity measurement algorithm is used. OpenStreetMap is used as the source of VGI data: linear data including Streets and Roads of districts 2, 5 and 9 of Tehran municipality are selected for this paper. ArcObject programming is used in C#. SQLSERVER is used as the DBMS, and ArcMap is used for presenting the results. According to the proposed conceptual model existing data as well as new imported data are processed and stored. Therefore, many application could be considered for a single data which will result a more complete data. In the following, in order to evaluate the performance of the presented model, database response to the queries of the users is analyzed and compared in two different databases: one with ordinary available storage type, and the other one with new storage type presented in this paper. The results show that compared to the ordinary database, responses by the new database to a group of users are: 1) more available in different queries, and 2) more accurate toward the user’s needs and purposes. The improvement of the performance of the new database is also presented based on the number of correct answers to 15 queries by 10 different users, which is more than 50 percent. As a recommendation for future works, the proposed model can be used for creating an automatic filter at the time of data entry.
    Keywords: Volunteered Geographic Information (VGI), Data Quality, Fitness for Use
  • A. R. Rahmaty, A. Toomanian, N. Neysani Samani * Pages 33-46
    These days Geospatial data has important roles in every organization and ordinary people’s life. They need these kinds of data for each activity. The most common believe in Geosciences is that which more than 80 percent every type of data in every organization has a spatial component which is produced by public sector, commercial companies and people (Volunteered Geospatial data). In addition to available data, development of data capturing technologies has led to increase data production ratio every day. Information overload still remain as a big challenge in current web and because of information overload, there is also big challenges in the world of geospatial information system. Data and services on the web are beneficial when users could discover them in an efficient manner. Difficulties such as ambiguity of keywords used for resource description by data providers and data users, different context of data providers and data producers, difficulties which users encountered dealing with spatial portals interfaces and spatial resources, number of clicks which a user required to navigate to a search panel, the variety of discoverability criteria’s on search panels, irregular descriptions of spatial resources or insufficient information provided on spatial resources which listed on result panel could cause users wasting lots of time for investigating interfaces and spatial resources which cause bewilderment to users of Geoportal in discovering geospatial resources. geoportal is kind of portal which mostly used for geospatial resource. Geoportals as a gateway for SDI is a tool which helps expert and non-expert users to discover geo information services. Geoportals have lots of functionalities like address identification, measuring, map viewing, printing etc. Most of the different approaches which have been utilized to resolve these problems emphasis on keyword based enhancement of data discoverability so the mentioned problems still exists. The aim of this research is to enhance Geoportals functionality by integrating new information retrieval procedure in Geoportals named as recommender systems. These days most of the web portals and information sources have a process of recommending items to users which could attract their attention and satisfies their expectations with personalizing their content for them. Personalized systems like recommender system assists users to find content, products, services (such as movies, music, news, articles .etc.) using processed and combined ratings (Like/Dislike) which collected from other users interactions on the website. Recommender systems are new paradigm in information discovering and presentation to the users and are a very different procedure from available data retrieval procedures. We offered a geoportal architecture which has an embedded recommender component.we aimed to integrate a recommender system in Geoportal. In this case we could help to conquer the existed problems in Geoportals by recommending related items to users based on user profiles, information item metadata and extracting their similarities. We applied ontological similarity as a semantic similarity tool for calculating relatedness of a geospatial resource metadata and a geoportals user. Our semantic recommender system uses ontological similarity and Singular Value Decomposition (SVD) to predicting related items and to overcome cold start problem. We developed a geoportal based on Road Management and Transportation Organization Geodatabase and designed ontology.
    Keywords: Recommender System, Geoportal, Semantic Web, Ontological Similarity
  • H. Davodi *, A. Safari, V. Ebrahimzade Ardestani Pages 47-57
    Optimization methods such as Simulated Annealing (SA), Genetic Algorithm (GA), Ant Colony Optimization (ACO) and Partial Swarm Optimization (PSO) are very popular for solving inverse problems. Gravity inversion is one of the fields of geophysical exploration that mainly used for mining and oil exploration. In this research optimization method is considered for gravity inversion of a sedimentary basin to find out its geometry. A new method for 3D inversion of gravity data is developed. In such optimization methods before anything else having a forward model is necessary. This model is the relationship between Bouguer gravity anomalies and a combination of prisms. The gravity anomalies of the density interface are generated by equating the material below the interface to a series of juxtaposing rectangular blocks. The stochastic optimization method that is used for solving inverse problem is Simulated Annealing. With a try and error method at first the cost function of a lot of choices is measured. Then the minimum value between them is used as the primary set of variables for introducing to model that is the start configuration of model variables. After that the repeating algorithm starts until the cost function reaches to as small as possible value by considering the geophysical constraints of the place that is being studied. Finally the geometry of prisms that is the depth of each prism is achieved. This geometry shows the situation of anomaly source. For better inversion regional anomaly is used with introducing some unknown constants to the model. The values of unknown parameters of model are extracted in a continuous range that is obtained from priori information of the region. At first the algorithm was used in solving a synthetic problem that is defined by developing random data in an arbitrary region, so with using forward model again and again finally the cost function reaches to its minimum value. For evaluating the success or failure of the algorithm, the contour map of depths that was used in forward model is compared with map that is produced after inversion and discrepancies was considered. The good results of synthetic problem lead to implementing the algorithm for real gravity data from Aman Abad region in Arak city. For this purpose at first the gravity data must be changed to Bouguer gravity anomalies by some reduction. After that the repeated algorithm is implemented and finally the results are compared with some priori information which is obtained by madding boreholes around the region. This priori information claims that the minimum and maximum depth of prisms is between 70 meters to 120 meters. Results of the algorithm are compatible with this information and show the power of algorithm in solving this kind of inverse problem. It must be mentioned that without using this priori information the results of gravity inversion are not unique and many different interpretations can be concluded even interpretations that cannot be accepted in geophysical view. As a norm to find the ability of algorithm in solving this problem the cost function can be helpful which shows the amount of error. The maximum value of it was 0.5 mgal in some regions in this research.
    Keywords: Gravity Data Inversion, Simulated Annealing, Optimization Methods, Random Search
  • S. Ghods *, S. V. Shojaeddini, Y. Maghsoudi Pages 59-71
    Nowadays, SAR imaging is a well-developed remote sensing technique for providing high spatial resolution images of the Earth’s surface. Fully polarimetric SAR systems which transmit and receive two orthogonal polarizations provide precise information about targets but have some limitations; Transmitting two interleaved waves for each scene doubles the transmitted power, repetition frequency and data volume compared with dual polarized SAR systems which transmit only one polarization and receive two polarizations. On the other hand swath width, which is an important parameter for surveillance applications, for fully polarimetric systems is half of dual polarized systems. Therefore, compact polarimetric systems have been proposed. Compact polarimetric systems are dual polarimetric systems with special transmitted and received polarizations. These combinations of polarizations made the compact polarimetric systems maintain many capabilities of fully polarimetric systems. Three candidates have been proposed for compact polarimetry configurations, namely, π/4, Dual Circular Polarization and Circular Transmit Linear Receive modes. In dual circular polarisation mode one antenna transmits right or left circular polarization and the responses of scatterers are received by two orthogonal right and left circular polarization antennas. There are some deficiencies, regarding the reconstruction of fully polarimetric data from dual circular one in the literature. So in this paper we have explained the reconstruction methods for dual circular polarization data. In order to reconstruct fully polarimetric data from compact polarimetric data, one should consider two approximate assumptions. One of the important assumptions is the reflection symmetry about radar line of sight. This assumption is very necessary for reducing the number of unknowns in the problem of reconstruction. For the second assumption Souyris et al. first linked the magnitude of linear coherence and the cross polarization ratio with a parameter named N and approximately set this parameter to 4. Subsequently Nord modified Souyris’ algorithm by replacing N with the ratio of double bounce scattering power to the volume scattering power and updated it during the calculation process iteratively. These assumptions are not well accurate in reality and thus the reconstruction results have some errors. In this research we noticed that there is a high correlation between N and the ratio of cross polarization power to the sum of co-polarization power. Thus using regression analysis methods, we have linked these two parameters and proposed that N is related to R by a rational model which its nominator and denominator are linear polynomials of R. Using several images from RADARSAT-2 sensor, we have shown that the reflection symmetry assumption is not well accurate for DCP mode and Nord assumption is better than Souyris assumption. Souyris assumption is more appropriate for vegetation areas. We have investigated the accuracies of the proposed and previous assumptions and showed that the proposed assumption is more accurate than the two others. By using the new assumption we have proposed a modified reconstruction algorithm. The proposed and previous reconstruction algorithms have been simulated and quantitative and qualitative analyses have shown that results from the proposed algorithm are closer to the fully polarimetric data and thus the proposed method is more accurate.
    Keywords: Synthetic Aperture Radar, Full Polarimetry, Compact Polarimetry, Dual Circular Polarisation, RADARSAT, 2
  • M. R. Jelokhani Niyaraki *, F. Hajiloo Pages 73-86
    The use of wind power plants have been considered as one of the most important ways of electricity production using renewable energy. The lack of adequate wind power facilities has caused governmental agencies to increase the number of these facilities. In this regard, it is essential to determine suitable locations to establish the wind power equipment. GIS is a useful tool to convey and present information by overlaying geographically referenced data. Integrating of geographic information system (GIS) and multi criteria decision analysis methods (MCDM) provides an empowerment tool to site selection. The multi criteria decision analysis methods help us to make the best choose from different spatial alternatives based on multiple criteria. Analytic network process (ANP) is one (MCDM) method that is a generalization of the analytic hierarchy process (AHP). The main innovation of the ANP is its network structure, which enables interactions between elements situated in different clusters and dependencies between the elements in the same cluster to be taken into account, in fact (ANP) has been used to overcome interdependence and feedback problems between criteria or alternatives. OWA is a multi-criteria evaluation procedure. The OWA-based method allows participants to define a decision strategy on a continuum between pessimistic and optimistic strategies. The (OWA) operators, provide a very general framework for making the kinds of local aggregations used in the (ANP). In order to create a general and powerful decision-making tool, it seems natural to try to merge these two techniques together. Objective of this paper is integrating the Analytical Network Process (ANP) and the Ordered Weighted Averaging (OWA) for the site selection of wind power plants. In this study, we used a multiple-criteria decision analysis approach; the Analytical Network Process (ANP) and the Ordered Weighted Averaging (OWA) to prioritize the suitable sites for the wind power plants. First (step 1) overlaying process was done on GIS using 12 data layers in three main criteria including: environmental, technical and economical, the land suitability map was produced and by using this map 12 suitable site was selected for the wind power plants. In step 2; weights of the criteria were determined using ANP, In the ANP process constructed a network model that captures the criteria and their relationships, then attributes were pairwise compared to their relative importance towards their control attribute according to interdependency between attributes (outer/inner) relationships and at the last was determined super matrix and attributes final weight. In step 3; the alternatives scores obtained from the ANP-OWA model, in this process for each alternative, the attributes weight that obtained from ANP, ordered based on the attribute value, order weight computed by using the equation, then the ordered value and ordered weight multiplied by together, finally the sum of their will be score of the interest alternative. To apply the different degree of risk we changed the value of or-ness on the ordered weight equation. By using the ANP-OWA model we can be able to obtain different result of due to optimism and pessimism and can generate many maps with different risk levels. Finally the wind power plants alternatives were prioritized in the different risk levels.
    Keywords: Wind Power Plants, Geographic Information Systems (GIS), Multi, Criteria Decision, Making Analysis (MCDA), Analytical Network Process (ANP), Ordered Weighted Average (OWA)
  • P. Pahlavani *, H. Askarian Omran Pages 87-100
    Due to increasing of population and its impacts on urban development and to avoid creating problems, studying and predicting of urban expansion and its impacts is one of the most important issues in scientific societies and environmental academies. For a better planning for the future, a vision of the future would be needed. Prediction of urban expansion gives a good view about the future to experts and decision makers. In this regard, they can make a well plan to meet the needs of the city in the future. Tehran is the capital and one of the most growing cities of Iran. So, the major purpose of this paper is to examine and display the growth of urbanization in Tehran in recent years and forecasting it for future. Thus, the combined results of the optimized feed-forward artificial neural network with different neighboring filters were used to model this issue. Moreover, for the urban growth purpose, only the building land use class was considered as the urban land use. The Landsat images at 1994, 2004, and 2014 were used to produce the urban map with the SVM method in ENVI. To access the trend of changes, the images for the years 1994 and 2004 were used for temporal mapping. In this paper, twelve parameters were considered as the effective parameters in urban expansion for Tehran, including digital elevation model, slope, population density, distance from Building blocks, distance from a new buildings created from 1994 to 2004, distance from villages, distance from roads, distance from farm lands, distance from jungle and parks, number of buildings pixel in 3×3 neighborhood, non-proliferation areas, and existing buildings. These factors were extracted from various existing maps and remotely sensed data using the ArcGIS and ENVI software. The feed-forward artificial neural network was performed with these parameters in two phases: (i) for training the network and (ii) for prediction. In order to predict the suitability map with high precision, the feed-forward artificial neural network architecture was optimized according to the least RMSE value for each number of hidden layer neurons. Then, the predicted suitability map was combined with different neighborhood filters with different thresholds in order to produce the urban map of 2014. Then, a combined method concluded from the results of the different neighborhood filters was presented. For accuracy assessment, the output of the model was validated in two phases: (i) 92.46 % of accuracy of the suitability map was obtained using Relative Operating Characteristic (ROC), and (ii) the final urban map of 2014 resulted from the combined method was compared with the real map of 2014 with the kappa index of agreement, i.e., 82.31 %, and the overall accuracy, i.e., 92.22 %. Finally, the proposed combined method was used to predict the urban map for the year 2024. The results indicate that an uncontrolled growth is going to happen in West and Southwest of Tehran. Accordingly, the results of this paper warned the city managers and experts for better planning and having a good strategy in critical situations.
    Keywords: Feed, Forward Neural Network, Neighborhood Filter, Urban Expansion, ROC
  • F. Mirmohammadi, M. R. Jelokhani Niaraki *, S. K. Alavipanah Pages 101-115
    Combination of GIS and Multicriteria Decision Analysis (MCDA) in the Web setting has recently gained much attention in participatory (collaborative) spatial decision making. GIS-based MCDA tools offer a wide spectrum of visual and computational decision support capabilities that can be used by the experts and lay participants on the Web for selection, prioritization, and integration of spatial decision options. These tools provide appropriate analytical tools and platforms for direct involvement of the public in the spatial planning process. The overall aim of GIS-based MCDA techniques is to contribute to the decision making process by selecting the best alternative from the number of feasible alternatives according to multiple criteria. It involves the use of geographical data, decision maker preferences, and an aggregation function (decision rule) that combines spatial data and the decision maker’s preference to evaluate decision alternatives. The main rationale behind integrating GIS and MCDA is that these two separate areas of research can complement each other. While GIS is normally known as a powerful and integrated tool with exclusive abilities for storing, manipulating, analyzing and visualizing geographically referenced information for decision-making, MCDA provides a rich collection of procedures and algorithms for structuring decision problems, designing, evaluating and prioritizing alternatives. Studies on the asynchronous spatial MCDA suggest that the space-time distributed environment of the Internet not only provides the flexibility to work in different places and times for the convenience of the participants, but also offers equal participation opportunity. In other words, the Web-based GIS-MCDA provides an access to the relevant GIS-MCDA data and tools anyplace (any location that has the Internet access), anytime (24 hours a day, seven days a week), and through any PCs or handheld devices (e.g., PDA, smart phones) and networks (wired or wireless technologies).
    However, the currently used GIS-MCDA tools do not provide the participants with a choice of their own criteria, alternatives, and preferences. To address this problem, this study represents a user-oriented GIS-MCDA system where decision participants can (i) define their own alternatives and determine individual decision maps and (ii) integrate their individual decision maps using a group decision rule to reach a compromise solution. The problem of public toilet site selection in district #1 of Mashhad, Iran, was selected as the case study to demonstrate the proposed approach. The proposed system was used as a potential decision support tool for collaborative site selection of the public toilets. Every decision maker could define his/her toilet alternatives by drawing a set of polygons, evaluate them based on AHP-based weighted linear combination and eventually develop an individual decision map. The group decision rule, fuzzy majority approach, was employed to create a group decision map based own individual solution maps. In other words, the individual solutions (individual rankings of public toilet facilities) are aggregated using the group decision rule to obtain a group solution (group rankings of public toilet facilities). Such tool enhances the level of community participation in spatial planning. The study’s implications can advance public participatory planning and allow for more informed and democratic land-use decisions.
    Keywords: Web, Based Decision Support Systems, Group Spatial Decision Making, Web Based Geographical Information Systems, User, Centered Alternatives
  • S. Aghel Ahahneshin, R. Ali Abaspour * Pages 117-128
    Nowadays, with considerable developments in technology, the accessibility and usage of positioning devices has been increased. These systems facilitate generation of position data as streams of spatio-temporal data, so-called trajectory. In recent years, research related to trajectory data management has mostly focused on the techniques of storage/retrieval, modeling, and data mining and knowledge discovery from trajectory data. These studies mainly emphasize on geometric aspects. However, emerge of different applications area from shipment tracking to geo-social networks generate motifs to detect semantic behavior (pattern) of moving objects. Semantic patterns include not only geometric patterns, but also the knowledge derived from the data relating to the geographical and application domains. Most of the studies in the field of semantic trajectory are based on offering different ways to add meaning to trajectories and little work has been carried out on preparing data for the semantic enrichment. Actually, process of knowledge discovery and semantic enrichment is a computing framework that commonly involves several steps.
    In this paper, an effective method as a multi-step computing framework is proposed and the results have been evaluated. In the proposed methodology, the outputs of levels are raw cleared data, spatio-temporal trajectory, and structured trajectory, respectively. At the first level, which includes techniques for cleaning raw data collected by moving objects, the algorithms for data cleaning from outliers are assisted and removal of unnecessary data are provided. To identify and eliminate the outliers from data set, a two-step algorithm is provided based on three sigma rule. Another step that needs to be done is the use of compression techniques for detection and removal of additional data. Compression techniques are typically based on linear simplification and use distance functions to approximate data. However, these methods are not able to keep stop and move points of trajectories. In this study, a compression method based on velocity of points is provided. The proposed method is based on combination of two functions. The first function is based on instant velocity of points to calculate distance function. Another function is perpendicular Euclidean distance. However, in this function instead of constant velocity, assumption of constant acceleration has been used in the interpolation. The results of implementation show that the suggested algorithm is able to reduce the number of points at the same time keep important point in trajectories. At the second level of abstraction, spatio-temporal trajectories have been derived from cleaned data. In this stage, trajectory identification is based on type of data and application. In this work, based on the specified application, which is transportation and traffic management, daily trajectories were identified from cleaned data. The final step in preparation of data for semantic enrichment is producing structured trajectories as stop and move episodes. For this task, a method based on velocity of points is implemented. In this method, the moving object data and environment in which it moves is used to identify episodes. In this paper, the proposed algorithm in the semantic enrichment framework has been implemented on a real trajectory data and evaluation results show the effectiveness of the method.
    Keywords: Spatial Trajectory, Data Mining, Knowledge Discovery, Compression
  • Sh. Sharifi Hashjin *, A. Darvishi Boloorani, S. Khazai Pages 129-139
    A hyperspectral image contains hundreds of narrow and contiguous spectral bands. Therefore, such images provide valuable information from the earth surface objects. Target detection (TD) is a fast growing research filed in processing hyperspectral images. In recent years, developing target detection algorithms has received growing interest in hyperspectral images. The aim of TD algorithms is to find specific targets with known spectral signatures. Nevertheless, the enormous amount of information provided by hyperspectral images increases the computational burden as well as the correlation among spectral bands. Besides, even the best TD algorithms exhibit a large number of false alarms due to spectral similarity between the target and background especially at subpixel level in which the size of target of interest is smaller than the ground pixel size of the image. Thus, dimensionality reduction is often conducted as one of the most important steps before TD to both maximize the detection performance and minimize the computational burden. However, in hyperspectral image analysis few studies have been carried out on dimension reduction or band selection for target detection in comparison to the hyperspectral image classification field. Otherwise band selection has great impact on remote sensing processing because of its effect on dimension reduction and reducing computational burden of hyperspectral image processing by selecting of optimum bands subset.
    This paper presents a simple method to improve the efficiency of subpixel TD algorithms based on removing bad bands in a supervised manner. The idea behinds the proposed method is to compare field and laboratory spectra of desired target for detecting bad bands. Since the laboratory spectrum of targets is measured under standard conditions with the minimized level of noise and atmospheric effects, they can be considered as ideal spectrum. On the other hand, the recorded field-based reflectance spectrum are affected by surrounding objects such as vegetation cover and atmospheric affects specially water vapor absorption. Obviously, the spectrum becomes progressively noisier at longer wavelengths due to reduction of radiance of the illumination source, i.e., the sun. In this way, bad bands can be observed in the field based spectrum when comparing with the laboratory spectrum of the target of interest. Based on fitting a normal distribution to laboratory-field spectral difference of all corresponding bands, best of them will be select and introduce to target detection methods.
    In this study for our evaluation, the proposed method is compared with six popular band selection methods implemented in PRtools and False alarm parameter for validation is used in this study. Comparison is done using two well-known sub-pixel TD algorithms, the adaptive coherence estimator (ACE) and the constrained energy minimization (CEM), in the target detection blind test dataset. This dataset includes two HyMap radiance and reflectance images of Cooke City in Montana, USA. The images are obtained by an airborne HyMap sensor which has 126 spectral bands and a ground sample distance of 3m. This dataset includes 10 sub-pixel targets located in an open grass region. Experimental results show that the proposed method improves the efficiency of the ACE and CEM comparing with other band selection methods used. Between of all target detection experiments only in 12 percent results destroyed. Moreover, high speed, simplicity, low computational burden, and time consuming are the advantages of the proposed method.
    Keywords: Hyperspectral Images, Target Detection, Band Selection, Target Spectral Signature
  • A. Kheiri, F. Karimipour *, M. Forghani Pages 141-158
    An important part of human activities in an urban environment is their mobility behavior. Nowadays, measuring the movement of people is a fundamental activity in modern societies. First insight regarding the mobility within a region can be captured by extracting the origin–destination (OD) matrix, which specifies the travel demands between the origin and destination nodes on a network. This matrix could be on different scales including macroscopic scales, e.g., at the inter-urban level, or at microscopic scales, e.g., at the intra-urban level. In the intra-urban level, OD matrix is indicative of the movement of people between different areas of the city.
    Many methods have been suggested for OD-matrix estimation, which can be classified into three main categories: survey-based methods, traffic counts, and methods based on the positioning technology. Using location-Based Social Networking (LBSN) data is a method based on the positioning technology which is raised in recent literatures as a new travel demand data source. Users of LBSN provide location-sensitive data interactively via mobile devices, including smartphones and tablets. These data has the potential to provide origin-destination movement estimation with significantly higher spatial and temporal resolution at a much lower cost in comparison with traditional methods. Data concluded from these networks are one of the modern and updated data sources that attracted researches attentions to urban management subject and let theme investigate three significant aspects of human movements and interactions including location, time and social communities.
    On the other hand, various models have been proposed for the estimation of OD matrix. In this paper, two OD estimation models have been utilized in order to investigate their relative performance when using LBSN data. The first model used in this study is “radiation model” in which the number of trips is estimated with regard to population of the origin and destination location, and the total population in the circle centered at the origin with the distance between the origin and destination as the radius (excluding the origin and destination population). The second model is “population-weighted opportunities model”, in which the travel rate from origin to destination is calculated with regard to the attraction of destination. This model assumes that the attraction of a destination for a traveler is the destination’s opportunities inversely weighted by number of opportunities between the destination and the origin.
    Although the two mentioned models have no adjustable parameters, they require information on variables such as population distribution and location attraction as input. In order to extract these inputs from location-based social networking data and make the proposed models compatible with this kind of data, it is essential to renew and advance the models, considering specific characters and limitations of LBSN data.
    This study examines the efficiency of LBSN data in the estimation of the intra-urban OD matrix. For this, Foursquare check-ins data for Manhattan, one of the five boroughs of New York City, is collected. As each LBSN data records has a time attribute, check-ins are sorted based on time and individuals trajectories extracted using consecutive check-ins. The study area is then partitioned based on census tracts and using aggregated trajectories between these areas, the movement flow intensity between each pair of tracts is estimated by each of the mentioned models. Finally, the outputs of models are evaluated using real observations based on different criterions including distance distribution, destination travel constraints and flux. The results demonstrate the promising potential of using LBSN data for urban travel demand analysis and monitoring.
    Keywords: Location Based Social Network, Check, Ins Data, Movement Patterns, OD Matrix
  • S. Nadi *, M. R. Delavar Pages 159-169
    Time and space are main parts of any phenomena in the real world. In spatial Information Systems (GIS) modeling processes are the first step in analyzing phenomena. Therefore including temporal aspects as well as spatial capabilities in GIS is necessary. One of the most important requirements in spatio-temporal modeling of phenomena in GIS is the ability to investigate their spatial and temporal topological relationships. In this paper we first explain different aspects of time as well as space and then propose a novel approach to extract a full list of temporal and also spatio-temporal topological relationships. Time as a distinct part of any phenomena can be considered to be zero or one dimensional. A zero dimensional temporal space is referred to a phenomena with start and end time occurrence in one chronon which is named event. A one dimensional temporal space is referred to a phenomena with a duration of existence and is named state. Accordingly, different spatial dimensions are point, line, area and volume. The proposed approach in this paper extracts all the possible relationships between different temporal aspects. The approach is based on a Boolean comparison matrix with two rows and four columns. Each cell of the matrix is a comparison between start and end of one temporal phenomena and start and end of the other which results true or false. This matrix leads to 28=256 relations which all of them are not logically acceptable. Therefore we explain how to find unacceptable relations. Removing these relations we find 13 relations between two temporal states, 6 relations between a temporal state and a temporal event and finally 3 relations between two temporal events. Furthermore, in order to conflate spatial and temporal topological relationships two strategies are proposed. In the first one, we used logical AND and OR operators and in the second strategy we consider the time to be an orthogonal dimension added to 2D spatial space. Each of these strategies leads to a comprehensive list of spatio-temporal relationships. Finally in order to illustrate the applicability of the extracted relationships, we implement them in a land information management system. The system is used to response spatial, temporal and spatio-temporal queries regarding historical situation of any parcels. As an example for spatial topological queries, the system is able to find parcels which are overlap with newly designed green space. Similarly the system can for example find land parcels which their duration of existence has same start point in time. This is a "start" temporal topological relationships. Regarding spatio-temporal relationship, the system can for example find land parcels which are coincide with a land parcel and are also neighbor to it.
    Keywords: Spatial Information Systems, Spatio, Temporal Topological Relationships, Land Information Management, Spatio, Temporal Queries
  • T. Silavi *, F. Hakim Pour, F. Nourian Pages 171-183
    The World Wide Web Consortium (W3C) defines the semantic web as a framework to share and reuse of data between groups, communities and applications. In this relation Tim Berners-Lee proposed the idea of “web of data” that can be processed by machines. In order to reach the aims of semantic web, there are needs to data representation languages, knowledge bases and rule bases that are known as semantic web technologies. In the world of spatial data, the semantic information has important roles in different activities of spatial analysis and data management. In this research the spatial semantics are dealt with a difference in two levels. The first is all the semantics about the location and geometry of an individual object and the second is about the arrangement and mixture of objects in an extent. The latter is more related to spatial relations that cause complexities to cope with. The semantic explicating of such concepts in relational spatial databases has some limitations such as non-flexibility of database schema, non-flexibility of data types, the restricted defining of sub-classes, implicit semantics of relations and finite number of joins between tables. The exclusive characteristics of semantic web technologies in storing, managing and retrieving of data and knowledge lead to a wide range of applications; also the applications independent of web environment. The databases defined in semantic web technologies are based on graph structures and present the advantages of logical databases, object-oriented data bases and network databases. The introduced capabilities are applied to explicate the concept of "deteriorated structures" in urban environments. This concept is inherently non-spatial but has two complementary spatial interpretations; permeability and fine granularity; which make it possible that the concept to be explicit in spatial data of urban layouts. The scenario which based on, the semantic of " deteriorated area" is made explicit starts from a point, that by acquiring its coordinates it is determined whether this point is located within the such area or not? Handling of the spatial data of the case study in district 12 of Tehran and the procedure to semantic explicating of “deteriorated area” are done in the spatial and semantic extension of Oracle DBMS. The spatial data of urban parcels and streets accompanied with area of parcels and width of streets are used. In order to model the spatial relations, all the neighborhood relations between parcels and intersection relations between streets are also entered as linked data to triple store. In addition to RDF data, a rule base to exploit the concepts of “connected streets” and “co-blocked parcels” and also to define the conditions of narrow streets and small parcels is needed. Using some SPARQL queries the percentages of parcels with less than 200 m2 area and the streets with less than 6 m width are presented. The infinite number of inter tabular joints which have many applications in the spatial relations, is the main shortcoming of conventional databases and means we cannot express an infinite, recursively defined sequence of similar expressions. The procedure shows the deficiency of relational spatial database about recursive relations and implicit relations especially the spatial ones can be satisfied by semantic web data models and knowledge management techniques.
    Keywords: Semantic Web Technologies, Spatial Semantics, Spatial Database, Deteriorated Urban Structures
  • S. S. Mirvahabi, R. Ali Abaspour * Pages 185-198
    In recent years, volunteered geographic information is developed rapidly and is considered as an important and new source for spatial information. In the beginning, only two-dimensional (2D) data were shared in voluntary databases, but recently, users have begun to collect and record three-dimensional data such as height, shape of roof, number of levels, doors and windows information. Three-dimensional models are used in many fields such as urban management, navigation, disaster management, and traffic modelling. Existence of three-dimensional digital data results in increasing of accuracy, efficiency, and improvement of results of many spatial analyses. OpenStreetMap (OSM) is one of the most important projects in the area of voluntary spatial data that has potential to store three-dimensional geospatial data. The mission of OSM is to create a free online map which covers all over the world. Each user, without the need to any license, can create, share, edit, and improve spatial data in OSM by three levels of editors (iD, Potlatch and JOSM). Geometric data might be shared in the form of node, way, and relation in OSM database. Moreover, semantic information in the form of key-value pairs could attach to geometric data. Many research have focused on extraction of three dimensional models from OSM data. CityGML standard format compared to other existing 3D formats has greater potential for displaying three-dimensional information, especially three-dimensional models of cities. In this research, an algorithm is proposed for automatic extraction of three-dimensional information from the OSM database and creation a three-dimensional model in the level of detail (LOD) 4. The output of this algorithm is three-dimensional models of Iranian buildings in CityGML format, which may be used as an input to many spatial analysis and applications.
    To implement the proposed algorithm in this paper, java programming language and NetBeans software are used. At first, intended range/building is selected and extracted in .osm format from OSM database. Then, the intended range will be introduced to java program for future process. Our case study in this research is the new building for school of electrical and computer engineering at University of Tehran, located in Tehran, Iran. This building has 9 levels and many interior and exterior doors and windows. The program needs some key-value pairs such as number of levels, levels height, windows height, and door height for creation of the three-dimensional model. After extraction essential key-value pairs from OSM data, the process for construction 3D model of building starts. For each level, all of the walls, windows, and doors are constructed one after another. Various levels of the building with interior partition, interior and exterior doors, and windows to be created by proposed algorithm. After construction of the levels of the building, the building's roof is created by using semantic and geometric information. At the end, the output 3D model of building(s) is stored in CityGML format.
    One advantage of this method is minimal use of semantic information for creation of three-dimensional models. The algorithm also focuses on improving the demonstration of the output, while maintains topological relations between features. The results of this research could be used for development of three-dimensional virtual cities based on voluntary information of VGI databases.
    Keywords: 3D modelling, Volunteered Geographic Information, OSM, CityGML, level of details
  • J. Salajegheh *, F. Hakimpour, A. Esmaeily Pages 199-213
    Using spatial data mining and weighted comparison methods can have an efficient role in determining the value of local utilites for efficient indices in real estate pricing. In this study, the factors affecting the price of real estate are divided into four general categories: economic and market factors, physical and welfare factors, neighborhood and access characteristics and organizational characteristics. Organizational characteristics considered as a group of influencing indices in determining property prices that its information is collected from relevant agencies and organizations can contribute significantly in pricing, marketing and management to the different users involved in the real estate sector including buyers, sellers and real estate agencies. The classification proposed assuming stable economic and market factors at the time of user requests and the influence of each index on the quantity and quality is finally divided into three groups that are: Boolean, Multi-Value and Fuzzy/Logarithmic. Where Boolean indices denote those that exist or does not exist on a property that value in order 1 and 0. Multi value indices are those that get more than one value and their influence coefficients are calculated like Boolean indices. Finally, Fuzzy/Logarithmic indices are those that their influence functions are continuous and like fuzzy or logarithmic functions and should be determined by available information and related techniques. Influence coefficient is the influence that the presence or absence of an index affects the property price. For example how presence of elevator affects the property price. Influence function for Fuzzy/Logarithmic indices is the influence that the amount of increasing or decreasing of an index affects the property price. For example how far to main road affects the property price. In this study spatial data mining and compared weighted coefficients are used interactively for gathered information in a crowd-sourced environment. With these methods, indices and impact factors and impact functions are obtained from using different information classifications that have considerable influences in determining local utilities in property pricing. The study area of this research is part of metropolitan area of Kerman (Iran) that is located within 57˚01 ́and 57˚04 ́of longitude and 30˚16 and 30˚19 of latitude from UTM coordinate system(zone 40). Required information includes both spatial and descriptive information. Spatial information includes the location of properties, public places (such as educational, religious, shopping and industrial centers, parks, offices and official buildings) and main and secondary streets. Hence, by using available maps such as maps provided by the National Cartographic Centre (NCC) in 2003 and cadastre maps from registration organizations under the preprocessing GIS ready, the shape files from properties, public places and streets are prepared. All these files are prepared in UTM coordinate system from reference elliptical WGS84. Thus 18053 numbers of properties, 260 numbers of public places and 1009 numbers of streets include main and secondary streets are prepared after preprocessing GIS ready in polygon format to enter to database. Also the description information of 150 properties were gathered from the agencies in the study area.
    The results obtained for 16 Boolean indices show that the maximum influence and utility is belong to indices parking, store, elevator and pool and indices the basement and furnished have the lowest utility. Substructure area index is highly dependent on the number of bedrooms. This means that an increase in the number of bedrooms will not necessarily led to an increase in the property price. Therefore the best number of bedrooms up to substructure area 90 squared meter is 2, up to area 120 squared meter is 3, up to area 150 squared meter is 4 and up to area 200 squared meter is 5.
    For Multi-Value indices the 15 indices are studied. For the index the number of stories with an increase in class between 2 and 3 percent is added to the price of each property. The index the number of units in a class is inversely related to the property price. This means that if the number of units in each class is higher in the same conditions like area the property price will be lower. For the index the registration document of property the highest utility belongs to full document and the lowest belongs to full devoted document (The full document means the document that completely belongs to its owner with the entire legal rights of a property. When some restrictions apply to the property by the previous owner for example in application style the degree of its ownership will be decreased. The level of restriction in any stage is one sixth of ownership. The restrictions start from full to full devoted document that has the highest restriction.) The registration range of property is a proper index for the regional utilities that depends on different factors. The results show that the highest utility belongs to the registration tag 5 and the lowest belongs to 2773. The organizational restrictions index such as being located in the heritage policy and being located in the urban future plan have a negative influence in local utilities and property price. The results show that being located in the heritage policy has the lowest utility and highest negative influence in property price. For the index view of property there is no utility in the study area and therefore this index is considered as ineffective index.
    Finally, for the Fuzzy/Logarithmic indices, calculating the influence function or obtaining a clear process for the changes aren’t easy as two previous groups and the influence rate of these indices is different in various distances. The influences of some indices are estimated by one influence function that are: land area, construction time, land price, reconstruction time, substructure area, distance from shopping centers and distance from main streets. For the indices distance from health centers, distance from educational centers, distance from administrative centers and distance from city center, the influence functions take various modes in different distances. The highest utility for these indices is situating in the distances that are not too far away or to close so that not to take negative effects of too close nor to disturb the appropriate access. There is neutral utility in some distances. This means that situating properties in these distances hasn’t any significant effect on property price. The influence functions for the indices distance from industrial centers, distance from historical and social centers and distance from religious centers are almost the same. According to the results obtained, Boolean and Multi-Value indices obtained with disciplined and more predictable process than the Fuzzy/Logarithmic indices. Finally for evaluation, the prices that were calculated by the system for 10 numbers of properties compared with their actual prices and their accuracy was calculated.
    Keywords: Spatial Data Mining, Weighted Comparing Coefficients, Influence Coefficients, Functions, Local Utilities
  • M. Bijandi *, M. Karimi Pages 215-233
    The physical conditions in informal settlements are not appropriate due to uncontrolled and unplanned growth in these areas. Simulation of informal settlements growth leading to better understanding of the complexity of its spatial process and how its formation. The phenomenon of informal settlements growth as a complex system has a macro pattern that results from the interaction of downstream agents at the micro level, and accordingly the feedback of the macro patterns affects the interactions at the micro level. In this study, it is attempted to consider this complex process of informal settlements growth. Agent-based models have the innate ability to model the behavior and interaction of agents and provide an ideal framework to study the informal settlements growth.
    Since the informal settlements are often formed organically the geometric shape of the land parcels is highly irregular, therefore choose a suitable spatial unit is among the challenges that local scale of simulation is confronted. In this study, it is attempted to address this challenge. Decision maker agents were combined with land parcel agents and simulation was performed on a local scale. In this model, the suitability of the land parcel agents was calculated based on factors of neighborhood, accessibility, physical suitability and spatial constraints using the spatial analyses in the GIS environment. Each parcel calculates its own general suitability value using these factors. Decision making for selecting the parcels was carried out by household agents who worked in downtown and those who worked in industrial areas around the city. For urban worker agents, a land parcel is desirable which has high suitability, small area, close distance to the city center and same agent type in the majority of the inhabitants around the land parcel. Besides, for the industrial worker agents a land parcel is desirable that has all conditions mentioned above and is also close to the industrial areas. The sensitivity of developed model was investigated on the basis of shape and size of land parcels more specifically. In this study, the rectangle and square shapes were used as the common geometric shapes of the land parcels in 20 different scenarios. The area of the residential parcels is always considered among the most important physical indicators for investigation of informal settlements at a local scale. So, in this study, it is attempted to investigate the land parcels in various areas. Besides, in this study, a fishnet grid of cells was created in two cell sizes of 2 and 5 m and the study area was also investigated with this configuration. In other words, by creating a raster-like space and comparing its results with the vector status it is attempted that the role of selecting the spatial unit in simulation process of informal settlements local growth also be analyzed from the perspective of the data model. All of these 22 scenarios was implemented using the developed agent based model on one of the informal settlements neighborhoods in the Kashan city of Isfahan province of Iran. Evaluation the results by real data showed that the accuracy of the model developed by rectangular land parcels with an area of 50 to 150 m2 is better than other vector and raster-like spatial units and is equal to 64%. Besides, the results showed that the overall accuracy of the raster-like models is significantly decreased compared to the vector structures.
    Keywords: Agent Based Modeling, Informal Settlements, Spatial Unit, Sensitivity Analysis, Data Model
  • S. Mohammad Nejad Niazi *, Mehdi Mokhtar Zade, F. Saeed Zadeh Pages 235-248
    Pan sharpening methods aim to produce a more informative image containing the positive aspects of both source images. However, the pan sharpening process usually introduces some spectral and spatial distortions in the resulting fused image. The amount of these distortions varies highly depending on the pan sharpening technique as well as the type of data. Among the existing pan sharpening methods, the Intensity-Hue-Saturation (IHS) technique is the most widely used for its efficiency and high spatial resolution. This method converts a color image from RGB space to the IHS color space. In next step the I (intensity) band is replaced by the panchromatic image. Before fusing the images, a histogram matching is performed on the multispectral and the panchromatic image. When the IHS method is used for IKONOS or QuickBird imagery, there is a significant color distortion which is mainly due to the wavelengths range of the panchromatic image. Regarding the fact that in the green vegetated regions panchromatic gray values are much larger than the gray values of intensity image. A novel method is proposed which spatially adjusts the intensity image in vegetated areas. To do so the normalized difference vegetation index (NDVI) is used to identify vegetation areas where the green band is enhanced according to the relation of red and NIR bands. In this paper vegetated areas are first found via thresholding on the NDVI and then green band is enhanced in these areas. In this way an intensity image is obtained in which the gray values are comparable to the panchromatic image. Intensity image is produced as a linear combination of MS bands and, thus, its weight parameters have a direct effect on the final fusion result. In the proposed method weight parameters are estimated by Genetic Algorithm. Beside the genetic optimization algorithm is used to find the best optimum weight parameters in order to gain the best intensity image. Visual interpretation and statistical analysis proved the efficiency of the proposed method as it significantly improved the fusion quality in comparison to conventional IHS technique. Spatial quality can be judged visually, but color changes more difficult to be recognized in this manner The spectral quality of pan-sharpened images was determined according to the changes in colors of the fused images as compared to the MS reference images. The accuracy of the proposed pan sharpening technique was also evaluated in terms of different spatial and spectral metrics. In this study, 7 metrics (Correlation Coefficient, ERGAS, RASE, RMSE, SAM, SID and Spatial Coefficient) have been used in order to determine the quality of the pan-sharpened images. Experiments were conducted on three different high resolution data sets obtained by three different imaging sensors, IKONOS, QuickBird and WorldWiew-2. The IHS pan-sharpening method results good spatial quality and is a commonly used algorithm for its speed and simplicity. The result of this proposed method showed that the evaluation metrics are more promising for our fused image in comparison to other pan sharpening methods. In fact, A combination of enhanced vegetated areas, genetic algorithm optimization and integration of IHS improves the spectral and spatial quality.
    Keywords: Pan Sharpening, IHS Method, IHS, GA Method, Enhance Vegetated Area
  • S. Dehnavi, Y. Maghsoudi *, M. J. Valadan Zoej Pages 249-262
    The sub-pixel level mineral information with reasonable accuracy could be a valuable guide to geological and exploration community for expensive ground and/or lab experiments to discover economic deposits. Thus, several studies demonstrate the feasibility of hyperspectral images for sub-pixel mineral mapping.
    Target detection is one of the most important applications in hyperspectral remote sensing image analysis. Relative to multispectral sensing, hyperspectral sensing can increase the detectability of pixel and subpixel size targets by exploiting finer detail in the spectral signatures of targets and natural backgrounds. Over the past several years, different algorithms for the detection subpixel targets with known spectral signature have been developed.
    Using derivative spectra in analytical chemistry is an established technique which is renowned as derivative spectroscopy. On the other hand, hyperspectral data nature allows the implementation of derivative spectroscopy, in hyperspectral images. Application of this technique in hyperspectral remote sensing is due to its ability for resolving complex spectra of several target species within individual pixels. Several researches have shown that the application of derivative spectrum in target detection, prepare better detection results in each individual pixel.
    However, one of the points that we have to pay special attention is that spectrum differentiation eliminates low frequency components of the spectrum. Hence, having a spectra and its best derivative order in a unified approach cause an increase in the information content of a spectral curve. Thus, an ensemble approach was proposed in this research.
    To justify the above-mentioned framework, this study was carried out with an airborne hyperspectral data in comparison to the previous works whereby the standard laboratory images were applied. Both proposed detection algorithms were used for identification of four mineral targets including alunite, kaolinite, epidote and hematite which were located in a hydrothermally altered mineral region (Gonabad county) in Iran east (Lat. AWT IMAGE and Lon. AWT IMAGE ). The Hymap images were acquired on September 11th 2006 with a spatial resolution of AWT IMAGE.
    Gonabad is structurally a part of Iran’s central desert (Lūt Desert). The regional rock units show the presence of altered mineralized rocks consisting of volcanic and subvolcanic tracit, agglomera, tuff, riolite, riodacite, dacite, etc. These mass rocks were altered due to the effect of hydrothermal solutions. The importance of geological researches in this region comes from above-mentioned hydrothermally altered zones.
    Ground sample data were collected for four dominant targets in the study area, including alunite, kaolinite, hematite and epidote. Stratified random sampling strategy was used for collecting the minerals in the field based on geological experts’ opinion. The precise target’s coordinates were determined by using GPS sensors.
    After the completion of field sampling procedure, samples were transformed to laboratory. Samples were grained in lab for spectral measurements. Then, reflectance measurements were done using a SVC HR 1024 lab spectrometer covering a full spectral range of VIS/SWIR (350 to 2500 nm). After spectral measurements were recorded, all obtained spectra were resampled to Hymap spectral response function. Finally, the resampled spectra was applied in the proposed ensemble approach for subpixel mapping of above-mentioned mineral targets.
    Experimental results show that the proposed method had clearly better detection results in entire understudy samples. The best performance upgrade was about 28, 24, 26 and 16 percent respectively for Alunite, Kaolinite, Hematite and Epidote targets.
    Keywords: Derivative Spectrum, Hyperspectral Images, Ensemble, Target Detection
  • N. Tatar *, M. Saadat Seresht, H. Arefi Pages 263-274
    Having a proper Digital Surface Model (DSM) is crucial in many earth dependent applications such as change detection, 3D urban modelling, urban planning and environmental monitoring. Generating DSM from High resolution stereo satellite images provides good possibilities in this issue. Image matching technique has an important role in DSM generation from stereo satellite images and directly effects on the quality of DSM. Up to now, many image matching algorithms have been proposed, such as Least Square Matching (LSM), Dynamic Programing (DP) and Semi-Global Matching (SGM) which the last one has a higher efficiency than the other methods.
    One of the main inputs for SGM algorithm are the epipolar images. Epipolar images are rectified images so that each row at left image corresponds with the same raw at right image (i.e. parallax y is zero). It will cause to accelerate the matching process and reduce the search space from 2D into 1D. Unlike the images with perspective geometry (Frame Camera), the epipolar geometry of linear array images could not modeled with straight line. Therefore, generating the epipolar images from high resolution stereo satellite images has been a research topic in the photogrammetry and remote sensing.
    Among the literatures, one can find different epipolar resampling methods proposed in image and object space. All these methods need Rational Polynomial Coefficient (RPC), orientation parameters or ground control points (GCP). Unfortunately, the orientation parameters are not available and RPCs need to be modified. Also measuring the GCPs is not affordable. So it is significant to decrease or completely remove the need for these information in epipolar resampling.
    In this paper, we aim to propose a method to build epipolar image by modeling the epipolar curves without any extra information. In the proposed method, dividing the original image into overlapping tiles and utilizing computer vision algorithms to automatically find the corresponding points in stereo images are employed.
    Our proposed framework consists of four main steps. The first step is pre-processing of data. In this step, the stereo pair is automatically registered and divided into overlapping tiles. To register images in the absence of RPC, GCPs or other metadata, SURF feature detector and RANSAC algorithm are employed. SURF operator automatically identifies point features in the images. Then RANSAC algorithm filters wrongly detected conjugate points among all points. These matched points will be used to register image pair using an affine transformation.
    In the second step, all registered stereo image tiles will be epipolarly resampled. Epipolar geometry for the image tiles of satellite images is equivalent to simple line. Fundamental matrix and Morgan’s method are used to build epipolar images.
    In the third step, disparity maps of corresponding epipolar images are computed using Semi-Global matching (SGM). The SGM algorithm needs large amount of temporary memory for saving matching costs cube and aggregated costs cube. The size of temporary memory depends on the image size and the disparity range. The solution which has been proposed by SGM is to divide the epipolar images into small image tiles. This idea has also followed in our proposed method.
    Finally in the fourth step, the result of experiments will be evaluated. The mean and standard deviation of y-parallax for some conjugate points is used to compare the result of different methods.
    A stereo-pair acquired by GeoEye-1 high resolution satellite pushbroom sensor is used in our experiments. This image scene includes urban areas over Qom city in Iran. In continue, epipolar images are produced using fundamental matrix and Morgan’s method. The mean and standard deviation of y-parallax is computed for these methods. The results show that our proposed method without using RPCs could produce the epipolar images with sub-pixel accuracy.
    Keywords: Epipolar Resampling, High Resolution Satellite Stereo Images, Small Image Tiles, Semi Global Matching, Rational Polynomial Coefficients
  • M. Mashhadi Hossainali *, M. Khoshmanesh Pages 275-291
    Following the request of the Tehran municipality and in order to provide the spatial information required in their various projects, a real-time kinematic network has been designed for Tehran. Based on the existing measures such as the dilution of precision at the network point positions, two different designs have been proposed. A minimum number of six GNSS stations are used in both of the proposed designs. In contrary to the first design (Design 1), the second design (Design 2) provides a better coverage within the city. The impact of the distance dependent errors within the proposed designs as well as the other existing measures has been analyzed for selecting the optimum design. The GNSS almanac as well as the IGS GIM and meteorological data obtained from the existing synoptic stations within and next to the city are used for this purpose. Totally, only the effect of tropospheric refraction suggests the second design as the optimum one in this project. GNSS measurements made at this network point positions are used to verify the measures used through the design process. Two testing approaches have been used to check the efficiency of the designed network in real-time applications. In the first approach and within the city of Tehran point positions are determined independently using kinematic as well as static positioning techniques. Different correction estimation and dissemination algorithms including FKP, MAX and i-MAX techniques have been applied for this purpose. In the second approach, the central and northern reference stations of the network, separately plays the role of a rover receiver (test point) while it is not contributing in computing the network corrections. Repeatability, accuracy and precision of these points’ positions have been analyzed. Result of this verification analysis acknowledges the applied method to design the TNRTK. Accuracy of 1 to 3 cm is achieved in the coordinate components within the network area. However, the accuracy of the point positions outside of the network area, especially height components, is not fulfilling the presupposed accuracy of an NRTK due to the tropospheric effects.
    Keywords: Real Time Positioning, Global Navigation Satellite Systems, Network Design
  • M. Ahmadlou, M. R. Delavar *, A. Tayyebi Pages 292-303
    Most of the land use change modelers have used to model binary land use change rather than multiple land use changes. As a first objective of this study, we compared two well-known LUC models, called classification and regression tree (CART) and artificial neural network (ANN) from two groups of data mining tools, global parametric and local non-parametric models, to model multiple LUCs. The case study is located in the north of Iran including cities of Sari and QaemShahr. Urban and agricultural changes over a period of 22 years between 1992 and 2014 have been model. Results showed that CART and ANN were effective tools to model multiple LUCs. While it was easier to interpret the results of CART, ANN was more effective to model multiple LUCs. In earlier studies, despite using CART, the extraction of effective factors of LUCs using a precise index has not been considered efficiently. As a second objective, this study performed a sensitivity analysis using variable importance index to identify significant drivers of LUCs. While ANN was a black box for sensitivity analysis, CART identified significant delivers of LUCs easy. The results showed that the most important factors were distance from urban areas and rivers while aspect was the least effective factor. As a third or final objective of this study, the recently modified version of receiver operating characteristics (ROC) called total operating characteristic (TOC) as well as ROC were used for accuracy assessment of CART and ANN. The area under the ROC curves were 78% and 75% for urban changes for ANN and CART models, respectively. The area under the ROC curves were 72% and 65% for agricultural changes for ANN and CART models, respectively. We found that although TOC and ROC were similar to each other, TOC proved more informative than conventional ROC as a goodness-of-fit metric. The outcome of this study can assist planners and managers to provide sustainability in natural resources and in developing a better plan for future given the needs to understand those contributing factors in urban and agriculture changes.
    Keywords: Classification, Regression Tree, Artificial Neural Network, Variable Importance Index, Multiple Land Use Changes, Receiver Operating Characteristic, Total Operating Characteristics