فهرست مطالب

علوم و فنون نقشه برداری - سال پنجم شماره 1 (پیاپی 17، امرداد 1394)

نشریه علوم و فنون نقشه برداری
سال پنجم شماره 1 (پیاپی 17، امرداد 1394)

  • تاریخ انتشار: 1394/08/23
  • تعداد عناوین: 21
|
  • رویا شورونی *، محمدرضا ملک صفحات 1-12
    رشد سریع شبکه های اجتماعی مکان مبنا به واسطه ی جذب میلیون ها کاربر، نشان از محبوبیت زیاد آن ها در مدت زمانی کوتاه دارد. با تجزیه و تحلیل داده های این شبکه ها درزمینه ی مکانی، زمانی و اجتماعی، می توان سرویس های ع ن ارا کرد. سیستم های توصیه گر ازجمله سرویس های مکان مبنای محبوب این شبکه ها محسوب می شود. سیستم های توصیه گر، با بهره گیری از تکنیک های آماری و تکنیک های کشف دانش، به توصیه مکان های جدید و کاهش مشکلات ناشی از حجم زیاد داده ها می پردازند. هدف پژوهش حاضر، ارائه روشی نوین برای توصیه مکان های جدید به کاربران بر اساس پیشینه مکانی آن ها است. روش ارائه شده، مجموعه ای از مکان های نزدیک به موقعیت کاربر را با در نظر گرفتن شرایط زمانی، فاصله جغرافیایی بین کاربران و همچنین ترجیحات مکانی کاربر که به طور خودکار از پیشینه مکانی او به دست می آید، پیشنهاد می دهد. در این روش، از پالایش محتوای اطلاعاتی، در راستای برآورد میزان علاقه کاربر به مکان های بازدید شده استفاده می شود. از پالایش مشارکتی نیز برای محاسبه مشابهت بین کاربران و پیش بینی میزان علاقه کاربر هدف به مکان جدید، بر اساس تجمیع امتیازات داده شده توسط کاربران مشابه، استفاده می شود. درنهایت ترکیب این دو روش، امکان ارائهk مکان دیدنی را در فاصله D_2 از کاربر سواره در بازه زمانی فعلی فراهم می سازد. در این مقاله از داده های نقطه-مکان شبکه Gowalla مربوط به شهر پکن چین در بازه زمانی بین اکتبر 2011 تا نوامبر 2011 استفاده شده است. به منظور بررسی عملکرد روش پیشنهادی، نتایج به دست آمده ازاین روش، با نتایج دو روش پایه در سیستم توصیه گر مقایسه شد. درنهایت توصیه مکان توسط این روش، نسبت به روش های توصیه کاربر آگاه بر اساس پالایش مشارکتی به روش باینری و GM-FCF، به ترتیب حدود 15 و12 درصد افزایش دقت را نشان می دهد.
    کلیدواژگان: شبکه های اجتماعی مکان مبنا، پیشینه مکانی، سیستم توصیه گر
  • محمد اصلانی *، محمد طالعی صفحات 13-24
    آنچه سامانه های اطلاعات مکانی (GIS) با آن روبه رو هستند، اطلاعاتی است که در قالب لایه های مکانی مدون گشته اند. یکی از مهم ترین وظایف سامانه های اطلاعات مکانی تحلیل لایه ها به منظور مدل سازی پدیده های مکان مرجع است. عدم توجه کافی به چنین مدل سازی هایی می تواند منجر به نتایج غیرواقعی در تصمیم گیری های مکانی و در پی آن خسارات مالی زیادی شود. در بسیاری از مدل سازی های مکانی، راه حل تحلیلی خاصی برای مدل سازی پدیده موردنظر وجود ندارد. برای چنین مدل سازی هایی، استفاده از روش های الهام گرفته از طبیعت در پاره ای از مواقع بسیار کارا می باشند. چنین روش هایی در شاخه ای از علم تحت عنوان محاسبات نرم (Soft Computing) قرار می گیرند. مدل سازی شکل و موقعیت توده های معدنی به علت پیچیدگی و تنوع عوامل موثر بر شکل گیری آن ها، ازجمله مواردی است که تاکنون راه حل تحلیلی مناسبی برای آن ها توسعه داده نشده است. هدف مقاله حاضر ارائه روش های نوینی از محاسبات نرم، متشکل از سیستم های استنتاج گر فازی، شبکه های عصبی و الگوریتم های ژنتیک در بستر سامانه های اطلاعات مکانی برای انجام مدل سازی های مکانی و به طور خاص تهیه نقشه پتانسیل معدنی است. یکی از چالش ها در ایجاد سیستم های استنتاج گر فازی، تشکیل پایگاه دانش فازی است. در این تحقیق از دو روش تقسیم بندی فضای ورودی-خروجی و شبکه عصبی (سیستم های استنتاج گر فازی عصبی) برای ایجاد پایگاه دانش فازی استفاده شده است. به منظور ارزیابی نتایج سیستم های استنتاج گر فازی، شبکه عصبی ژنتیکی نیز پیاده سازی شد تا بتوان تفسیر بهتری از نتایج ارائه نمود. نتایج حاصله نشان داد که شبکه عصبی ژنتیکی و سیستم استنتاج گر فازی عصبی به ترتیب با RMSE، 4 و 15 بالاترین دقت را برای داده های آموزشی و کنترل، حاصل نمودند.
    کلیدواژگان: سیستم استنتاج گر فازی، الگوریتم ژنتیک، شبکه عصبی، سیستم اطلاعات مکانی، نقشه پتانسیل معدنی
  • محمد کریمی *، سمیه ابوالحسنی، محمد طالعی صفحات 25-42
    اثرات مکانی کاربری های همسایه یک مولفه مهم در شبیه سازی تغییرات کاربری اراضی می باشد. استفاده از خودکاره های سلولی در صورتی توجیه پذیر است که قوانین همسایگی به درستی تعریف شده باشند و به عبارتی قوانین همسایگی به عنوان قلب تپنده مدل های خودکاره سلولی مطرح می شوند. از طرفی مدل های خودکاره سلولی متعارف به مقیاس مکانی حساس بوده و در راستای غلبه بر محدودیت های موجود در ساختار رستری، خودکاره های سلولی برداری مطرح می شوند. هدف از این تحقیق مدل سازی تغییرات کاربری اراضی به وسیله خودکاره سلولی با کاربرد قطعات کاداستری به جای پیکسل می باشد. در این مدل تناسب کاربری اراضی بر اساس شاخص های تناسب فیزیکی، میزان دسترسی و اثر هسایگی ارزیابی شده است. همچنین ساختار همسایگی به صورت یک همسایگی شعاعی و بر اساس تابعی از سه مولفه متمرکزسازی، وابستگی و سازگاری تعریف شده و نحوه تعاملات کاربری ها در سه آستانه فعالیت محله ای، ناحیه ای و منطقه ای مورد ارزیابی قرار گرفته است. این مدل با استفاده از داده های مکانی منطقه 22 شهرداری تهران و در سیستم اطلاعات مکانی (GIS)، در دو سناریوی اولویت تخصیص کاربری و بیشترین تناسب، پیاده سازی و ارزیابی شده است. نتایج ارائه شده گویای توانایی بالای مدل در شبیه سازی تعاملات کاربری ها و نمایش رشد شهر در یک سطح قابل قبولی از تناسب همجواری کاربری ها می باشد؛ به طوری که ارزیابی مدل بیانگر عدم وجود کاربری های ناسازگار و غیروابسته در میان پارسل های تازه توسعه یافته و اختصاص متوسط امتیاز 77/ 0 و 55 /0 در سناریو 1 و 75 /0 و 47/ 0 در سناریو 2 (از بازه 0 تا 1) به ترتیب برای سازگاری و وابستگی پارسل-های توسعه یافته می باشد.. از آنجایی که در این مدل اماکن ارزیابی سناریوهای مختلف شهری وجود دارد می توان از آن در زمینه تصمیم گیری های مکانی و برنامه ریزی کاربری اراضی شهری بهره جست.
    کلیدواژگان: تناسب کاربری اراضی، اثر همسایگی، پارسل های کاداستری، خودکاره سلولی برداری، سیستم اطلاعات مکانی
  • سپهر هنرپرور *، علی اصغر آل شیخ صفحات 43-53
    در کلان شهرهایی مثل تهران، کاربری های اراضی به علل مختلف از جمله کنترل ترافیک و رفع نیازهای نواحی مختلف شهری، در حال تغییر می باشند. مراکز ارائه دهنده خدمات گردشگری مثل رستوران ها هم تحت تاثیر این تغییرات قرار می گیرند. در بعضی از این مراکز حتی کیفیت ارائه خدمات هم دستخوش تغییر می شود. بنابراین به منظور به روزرسانی سریع ااطلاعات خدمات گردشگری در هر کاربرد از جمله گردشگری به یک سامانه احتیاج است. از آنجایی که به روزرسانی پایگاه داده توسط سازمان ها و موسسات مستلزم صرف زمان و هزینه نسبتا زیادی است، به سامانه ای احتیاج است که بتواند داده های مکانی را به صورت خودکار به روز کند، به صورتی که فرآیند به روزرسانی اطلاعات احتیاج به طی پروسه های زمان بر و هزینه بر نداشته باشد. با توجه به اینکه اطلاعات مکانی مردم گستر از کاربران معمولی دریافت می شوند، نیازی به زمان یا هزینه بالا برای جمع آوری ندارند. بنابراین با استخراج این داده ها می توان به صورت خودکار پایگاه داده مراکز خدماتی را به روزرسانی کرد. هدف مقاله این است که قابلیت اطلاعات مکانی داوطلبانه در به روزرسانی خودکار پایگاه داده آزمایش شود. برای جمع آوری داده های VGI از یک برنامه کاربردی موبایل استفاده شده است، و داده های مرجع رستوران ها هم از GoogleMap و سایت Fidilio استخراج شده اند. داده های VGI مناسب برای ورود به پایگاه داده مکانی، بایستی ابتدا کیفیت سنجی شوند. مسئله این است که کیفیت VGI ابعاد و المان های مختلفی دارد ولی ما برای به روزرسانی نیاز به مقدار واحد داریم. لذا از روش OWA و کمیت سنج های فازی برای تبدیل کیفیت چندبعدی به یک بعدی استفاده شد، و داده های با کیفیت بالا برای ورود به پایگاه داده آماده شدند. نتایج حاکی از آن بود که سامانه در تکمیل اطلاعات 60 درصد از رستوران های ناحیه موفق بوده است. در نهایت، و پس از بررسی نقشه به دست آمده از این سامانه و نقشه مرجع دریافتیم که برای دریافت اطلاعات رستوران ها، لزوم بالا بودن صحت توصیفی «نام رستوران ها» به عنوان عامل کنترل کننده، مانع از بروز خطا در تخصیص صحیح اطلاعات به رستوران های مورد نظر در نواحی متراکم می گردد.
    کلیدواژگان: اطلاعات مکانی مردم گستر، به روزرسانی خودکار پایگاه داده، OWA و کمیت سنج های فازی، رستوران ها، کیفیت VGI، برنامه کاربردی موبایل
  • احمد ملک نژاد، حسن قاسمیان *، فردین میرزاپور صفحات 55-64
    اکثر الگوریتم های طبقه بندی داده های سنجش از دور بر اساس ویژگی ها و اطلاعات طیفی پیکسل ها عمل می کنند. این مسئله باعث نادیده گرفتن اطلاعات مکانی مفید قابل استخراج از این تصاویر، مانند؛ بافت تصاویر می شود. استفاده هم زمان از بافت و اطلاعات طیفی مبحثی است که به آن کمتر پرداخته شده است. در این پژوهش تاثیر استفاده از بافت تصویر تک باند سنجنده ALI بر دقت طبقه بندی تصاویر ابرطیفی سنجنده هایپریون در محیط های شهری بررسی شده است. اطلاعات بافت تصویر تک باند با استفاده از ماتریس رخداد همزمان (GLCM) استخراج شده است. طبقه بندی نیز با به کارگیری روش ماشین بردار پشتیبان (SVM) و در سه مرحله انجام پذیرفت: طبقه بندی اطلاعات طیفی تصویر ابرطیفی، طبقه بندی تصاویر ادغام شده به دست آمده از روش تبدیل رنگ نرمالیزه (CNT)، و نهایتا طبقه بندی با استفاده هم زمان از بافت تصویر تک باند و تصاویر ابرطیفی ادغام شده. تاثیر نوع ویژگی بافت استخراجی از ماتریس رخداد همزمان و همچنین اندازه پنجره استخراج بافت در پوشش های مختلف بررسی شد. نتایج پیاده سازی ها نشان داد که استفاده از ویژگی های بافتی در کنار ویژگی های طیفی تصاویر حاصل از ادغام، می تواند دقت طبقه بندی مناطق شهری، مانند؛ بافت مسکونی و مناطق صنعتی را به طور کلی، حدود 5 درصد بهبود ببخشد. افزایش دقت در برخی از کلاس ها تا حدود 15 درصد بوده است.
    کلیدواژگان: سنجش از دور، تصاویر ابرطیفی، ادغام تصاویر، بافت تصویر، طبقه بندی
  • همام یارمند، مهدی مختارزاده، علی محمدزاده *، محمد جواد ولدان زوج صفحات 65-74
    با توجه به اهمیت نقاط تقاطع شبکه راه در زمینه های گوناگون مانند زمین مرجع سازی تصاویر ماهواره ای یا برقراری ارتباط بین چند تصویر از یک منطقه ی خاص و با توجه به دشواری و زمانبر بودن تعیین محل دقیق برخورد محور مرکزی شبکه راه در محل تقاطع های کاندید در تصاویر بزرگ مقیاس توسط اپراتورها، در این مقاله سعی در ارائه روشی جهت تعیین موقعیت دقیق نقطه تقاطع محورهای مرکزی شبکه راه در محل تقاطع شبکه راه در تصاویر بزرگ مقیاس ماهواره ای گردیده است. در مرحله اول الگوریتم پیشنهادی با استفاده از روش خوشه بندی k-means و بهره گیری از اطلاعات بافت زاویه ای، پیکسل های کلاس راه تعیین و در مرحله بعد با استفاده فیلتر Canny و روش آنالیز لبه دایره مرکزی ناحیه تقاطع، پیکسل های لبه نزدیک به تقاطع شبکه راه تعیین و در آخر با استفاده از روشی پیشنهادی، اقدام به برداری سازی و تعیین محل دقیق نقاط تقاطع شبکه ی راه شده است. تمرکز این پژوهش، بر دقت بالای تعیین موقعیت تصویری نقاط تقاطع شبکه راه بطور مستقیم بوده و بر تعیین موقعیت تمامی نقاط تقاطع موجود در تصویر، تاکیدی نمی باشد. پیاده سازی روش پیشنهادی بر روی یک تصویر بزرگ مقیاس ماهواره ای، موید توانایی آن در شناسایی محل تقاطع شبکه راه با دقتی در حدود نیم پیکسل می باشد.
    کلیدواژگان: تقاطع شبکه راه - K، means - بافت زاویه ای- آنالیز دایره مرکزی ناحیه تقاطع- برازش خط
  • حامد امینی، پرهام پهلوانی* صفحات 75-92
    در این مقاله روندی برای بازسازی ساختمان های مسطح از داده های لیدار و تصاویر رقومی هوایی ارائه شده است. زیرا از یک سو، این نوع ساختمان ها، بافت اصلی شهرهای بزرگ ایران را تشکیل می دهند. از سوی دیگر، تفکیک صفحات و بازسازی آن ها به دلیل یکسان بودن بردار نرمال برای تمام صفحات و عدم تقاطع صفحات به دلیل موازی بودن، موضوعی پرچالش است. در این راستا، ابتدا با تولید 16 توصیفگر اولیه بالقوه و استفاده از الگوریتم ژنتیک و الگوریتم خوشه بندی KNN، توصیف گرهای بهینه برای شناسایی ساختمان ها مشخص شده و ساختمان ها شناسایی گشتند. در مرحله بعد با ارائه روندی، مناطق به اشتباه شناسایی شده، حذف گشته و نتایج شناسایی بهبود داده شد. روند بازسازی به گونه ای طراحی شده است که هر بلوک ساختمانی را به صورت مجزا بررسی کند تا از افزونگی داده جلوگیری شود و دقت نیز افزایش یابد. پس از انتخاب بلوک مورد نظر، با استفاده از پارامتر تغییرات شیب، یک کلاس اولیه از صفحات سقف ساختمان بدست آمد. با آنالیز ارتفاعی و بافتی، صفحات سقفی به طور کامل شناسایی شده و معادله آن ها محاسبه شد. در مرحله بعد، مرز هر یک از صفحات به صورت برداری استخراج گردید و با بررسی اطراف هر نقطه مرزی، نقطه زمینی متناظر آن نیز بدست آمد. در نهایت با استفاده از معادله صفحات و مرز آن ها و همچنین نقاط کف استخراج شده، مدل نهایی ساختمان بازسازی شد. روند پیشنهادی بر روی چند بلوک ساختمان با ساختار متفاوت پیاده سازی شد و دقت هر یک از صفحات بازسازی شده به دو صورت مسطحاتی و ارتفاعی مورد ارزیابی قرار گرفت. نتایج ارزیابی به طور متوسط %56/ 84 دقت کلی در شناسایی مسطحاتی صفحات سقفی، 212/ 0 متر خطای مسطحاتی در مختصات گوشه های صفحات و 145/ 0 متر خطا در راستای ارتفاعی را نشان داد که تصریح کننده عملکرد مناسب روند پیشنهادی در بازسازی ساختمان های دارای سقف های مسطح است.
    کلیدواژگان: شناسایی، بازسازی، توصیف گر، سقف مسطح، لیدار، تصویر رقومی هوایی
  • محسن جعفری *، یاسر مقصودی، محمد جواد ولدان زوج صفحات 93-108
    روش های مختلف طبقه بندی داده پلاریمتری به طورکلی در سه گروه قرار می گیرند. (1) روش های آماری، (2) روش های برمبنای مکانیسم پراکنش و (3) روش های دانش مبنا. در این مقاله روشی دانش مبنا و شیءمبنا برای طبقه بندی داده ی پلاریمتری مطرح شده است که در آن روش طبقه بندی SVM-DT برای تلفیق دانش در سه بخش دانش اولیه، دانش حاصل از داده پلاریمتری و دانش خبره توسعه داده شده است. دانش حاصل از داده (آماری، فیزیکی و مکانی) در مراحل تعیین طرح درختی، ویژگی برای طبقه بندی کننده SVM و همچنین در انتخاب ویژگی های بهینه به کار گرفته می شود. دانش اولیه برای توازن تعداد داده های آموزشی در طبقه بندی کننده SVM استفاده می شود. درنهایت دانش خبره نیز در دو مرحله ایجاد طرح درختی و همچنین انتخاب ویژگی های بهینه درروش پیشنهادی استفاده می شود. داده پلاریمتری سنجنده رادارست-2 از منطقه ی جنگلی Petawawa کانادا با شش کلاس بلوط قرمز (Or)، کاج سفید (PW)، صنوبر سیاه (Sb)، آب (Wa)، منطقه ی شهری (Ur) و پوشش گیاهی (GV) برای پیاده سازی این تحقیق انتخاب شده است. برای بررسی تاثیر دانش های مختلف درروش پیشنهادی 6 طبقه بندی کننده در آزمایش ها مقایسه شده است: طبقه بندی کننده ویشارت، SVM با تمام ویژگی ها، SVM-DT با تمام ویژگی ها، SVM-DT شیءمبنا با تمام ویژگی ها، SVM-DT شیءمبنا همراه با انتخاب ویژگی و SVM-DT شیءمبنا با انتخاب ویژگی و دانش اولیه. نتایج نشان داد اضافه شدن دانش های مختلف به طبقه بندی تاثیر مثبت و خوبی بر روی کلاس های جنگل دارد اگرچه برخی از این دانش ها در کلاس های دیگر بی تاثیر و یا حتی تاثیر منفی دارند. درنهایت دقت کلی روش پیشنهادی حدود 87 درصد حاصل شد که در مقایسه با روش ویشارت 15 درصد و در مقایسه با طبقه بندی کننده SVM، 9 درصد بهبود داشته است.
    کلیدواژگان: داده پلاریمتری رادار با روزنه ترکیبی، طبقه بندی دانش مبنا، SVM، DT، دانش خبره، جنگل
  • پرهام پهلوانی *، سیامک طالبی نهر، روح الله کریمی صفحات 109-125
    شناسایی و استخراج عوارض از تصاویر هوایی از دیرباز مورد توجه بسیاری از محققین فعال در فتوگرامتری و سنجش ازدور بوده است. با ظهور سنجنده های جدید مانند لیدار و ترکیب داده های این سنجنده ها و تصاویر هوایی بحث شناسایی و استخراج وارد دوره جدیدی شده است. به دلیل توانایی زیاد مدل های نروفازی انطباق پذیر (انفیس) در حل مسائل پیچیده، استفاده از این مدل ها به صورت روز افزون در حال افزایش می باشد. مدل های نروفازی توانایی کار با مقدار زیاد داده ها و روابط خطی و غیر خطی بین آنها را دارا می باشند. در این تحقیق، روشی بر مبنای مدل های نروفازی برای شناسایی ساختمان ها با استفاده از داده های لیدار و تصاویر دیجیتال هوایی ارائه می گردد. بر این اساس، چهار توصیفگر باند سبز، شاخص گیاهی نرمال شده و دو مدل رقومی سطح نرمال شده (که توسط دو الگوریتم متفاوت تولید می شوند) به عنوان ورودی های مدل نروفازی استفاده می شوند. مدل نروفازی ارائه شده از سه الگوریتم مختلف برای تولید ساختار سیستم استنتاج فازی استفاده می کند. این الگوریتم ها شامل قسمت بندی شبکه ای (Grid Partitioning)، خوشه بندی کاهشی و خوشه بندی فازی می شوند. روش ارائه شده در این تحقیق بر روی سه ناحیه مختلف از شهر وایهینگن آلمان مورد آزمایش قرار می گیرد. این نواحی توسط کارگروه III/4 جامعه بین المللی فتوگرامتری و سنجش ازدور در اختیار محققین قرار گرفته و از آنها خواسته شده تا نتایج حاصل از روش های خود برای شناسایی و بازسازی عوارض شهری را برای مقایسه به این کار گروه بفرستند. حال در این پژوهش نتایج بدست آمده از سه الگوریتم نروفازی و نتایج مشارکت کننده های کارگروه III/4 مقایسه و مورد بحث قرار خواهند گرفت. این مقایسه بر اساس معیارهای کمال، صحت، کیفیت و خطای مجذور میانگین در دو مبنای پیکسلی و عارضه ای انجام خواهد گرفت. نتایج حاصل از این مقایسه ها حاکی از توانایی بالای مدل های نروفازی انطباق پذیر در شناسایی ساختمان در مقایسه با بقیه روش ها دارد. این روش ها در شناسایی ساختمان هایی با مساحت بزرگ تر از 50 مترمربع با در نظر گرفتن معیار کمال، 100 % موفق بوده اند. همچنین با در نظر گرفتن معیار کمال و صحت در شناسایی عوارض بزرگ تر از 50 مترمربعی، همواره به درصدهای بالای 90 رسیده اند.
    کلیدواژگان: تصاویر هوایی دیجیتال، لیدار، خوشه بندی کاهشی، خوشه بندی فازی، ANFIS
  • رضا عطارزاده *، جلال امینی صفحات 127-138
    طبقه بندی تصاویر ماهواره ای یکی از متداول ترین روش های استخراج اطلاعات از داده های سنجش از دوری می باشد. با ظهور سنجنده های مایکروویو امکان بهره برداری از اطلاعاتی متمایز از اطلاعات قابل استخراج از سنجنده های نوری فراهم آمده است. دلیل این امر امکان استفاده از ویژگی های متمایز طیف الکترو مغناطیس در محدوده ی مایکروویو است که توسط سنجنده های راداری قابل برداشت می باشد. در این بین تصاویر پلاریمتریک رادار با روزنه مصنوعی به دلیل نمایش رفتار عوارض مختلف در مواجه با قطبش های متفاوت میدان الکترومغناطیس، حاوی اطلاعات ارزشمندی به منظور طبقه بندی پدیده های مختلف می باشند. امروزه با استفاده از آلگوریتم های تجزیه هدف امکان استخراج طیف وسیعی از ویژگی ها از تصاویر پلاریمتریک رادار فراهم آمده است. در این مقاله سعی شده است تا در ابتدا نسبت به استخراج این ویژگی ها در سه گروه ویژگی های عمومی، ویژگی های استخراج شده از روش های تجزیه هدف و توصیف گر های SAR اقدام شود. در ادامه از آلگوریتم ماشین بردار پشتیبان به منظور طبقه بندی تصویر پلاریمتریک استفاده شده است. در این مطالعه از آلگوریتم ژنتیک به منظور محاسبه پارامتر های کرنل و کاهش ابعاد فضای ویژگی و انتخاب ویژگی های بهینه استفاده شده است. در این تحقیق نشان داده می شود که تنظیم پارامتر های کرنل و انتخاب ویژگی های بهینه به صورت همزمان منجر به افزایش دقت طبقه بندی نسبت به حالتی است که فرآیند محاسبه پارامتر های کرنل و انتخاب ویژگی های بهینه به صورت مجزا صورت می پذیرد. همچنین به منظور مقایسه عملکرد طبقه بندی کننده ماشین بردار پشتیبان همراه با آلگوریتم ژنتیک از سه استراتژی مختلف و آلگوریتم طبقه بندی شیء مبنا نیز استفاده گردید. این نوع طبقه بندی امکان در نظر گرفتن اطلاعات بافت و شکل را در فرآیند طبقه بندی داده و به دلیل ایجاد اشیاء تصویری باعث کاهش تاثیر نویز اسپکل در تصویر می گردد. دقت این طبقه بندی کننده نسبت به حالتی که از روش جستجوی گرید برای محاسبه پارامترهای کرنل استفاده شده و همچنین از تمای ویژگی های پلاریمتریک استخراج شده استفاده شده است بالاتر می باشد ولی در مقایسه با استفاده مجزا یا همزمان آلگوریتم ژنتیک به منظور تنظیم پارامترها و انتخاب ویژگی از دقت پایین تری برخوردار می باشد. همانطور که در قسمت ارزیابی نتایج نشان داده می شود، رویکرد ارائه شده در این تحقیق منجر به اخذ نتایج رضایت بخشی گردیده است.
    کلیدواژگان: تصاویر پلاریمتریک، رادار روزنه مصنوعی، ماشین بردار پشتیبان، آلگوریتم ژنتیک، طبقه بندی شیء مبنا
  • زهره معصومی *، محمد سعدی مسگری صفحات 139-157
    با توجه به تغییرات مختلف و مداوم کاربری ها، در نظر گرفتن خاصیت دینامیک محیط شهری در برنامه ریزی شهری از اهمیت خاصی برخوردار است. بنابراین پیشنهاد چینش مناسب کاربری های شهری پس از وقوع تغییر در کاربری ها، کمک شایانی به مساله ی مدیریت پویای شهری می نماید. هدف اصلی این تحقیق ارائه ی روشی بر اساس GIS و الگوریتم بهینه سازی چندهدفه ی NSGA-II است که با استفاده از آن بتوان در صورت تغییر یک کاربری، چینش بهینه ی سایر کاربری های منطقه، در سطح قطعات شهری، به دست آورد. یک هدف فرعی نیز استفاده از آنالیز خوشه بندی برای کمک به تصمیم گیرنده در انتخاب جواب مورد نظر می باشد به نحوی که تصمیم گیرنده بتواند با توجه به معرفی اولویت های برنامه ریزی، سناریوی حاصل را ملاحظه و انتخاب نماید. در سازگارسازی الگوریتم NSGA-II با مساله، چهار تابع هدف بیشینه سازی سازگاری، بیشینه سازی وابستگی، بیشینه سازی مطلوبیت و بیشینه سازی همسانی کاربری های مجاور تعریف شدند. تامین سرانه ی کاربری ها در منطقه نیز به صورت قید در سناریوهای تولید شده به کار گرفته شد. به منظور حمایت از تصمیم گیری و نمایش سناریوها به تصمیم گیرندگان از آنالیز خوشه بندی با استفاده از الگوریتم بهینه سازی کلونی مورچه استفاده شد. در نهایت مدل با استفاده از داده های دو محله از منطقه ی 7 شهرداری تهران پیاده سازی و تست شد. همچنین نتایج حاصل از الگوریتم بهینه سازی از نظر همگرایی و تست تکرارپذیری در سطح قابل قبولی می باشند. در چینش های بهینه ی به دست آمده نیز وضعیت توابع هدف بهتر از وضعیت موجود است و کمبود سرانه ها تا حد قابل توجهی جبران شده است. مدل حاصل به برنامه ریزان و سیاست گزاران شهری در خصوص اصلاح طرح تفصیلی موجود پس از تغییر یک یا چند کاربری کمک می نماید.
    کلیدواژگان: مدیریت کاربری اراضی شهری، تغییر کاربری، سیستم اطلاعات مکانی، بهینه سازی چندهدفه، خوشه بندی، حمایت از تصمیم گیری، NSGA، II
  • علی سبزعلی یمقانی *، علی اصغر آل شیخ صفحات 159-174
    روند رو به رشد شهرنشینی موجب شده است تا توسعه ی پایدار شهری به یکی از مهمترین دغدغه های مدیران تبدیل شود. امروزه نقش حمل و نقل در توسعه پایدار شهری بسیار روشن و غیر قابل انکار است. از طرفی نیاز به حمل و نقل پایدار ایده استفاده از حمل و نقل غیرموتوری را تقویت می نماید. حمل و نقل غیر موتوری هم به نوعی تفریح و تفرج بوده و هم امکان آمد و شد ارزان را تامین می-نماید. با توجه به اینکه ارائه ی شاخص قابلیت پیاده روی یکی از مباحث مطرح در زمینه حمل و نقل غیرموتوری می باشد، در این تحقیق به توسعه شاخص قابلیت پیاده روی در سطح محلات شهر قم پرداخته شده است. پارامترهای موثر در شاخص قابلیت پیاده روی شناسایی و سپس 9 پارامتر اصلی جهت محاسبه ی شاخص پیشنهادی تعیین شد. این پارامترها شامل اختلاط کاربری، تراکم جمعیت مناطق مسکونی، تراکم تقاطع خیابان ها، تراکم طول خیابان ها، دسترسی به حمل و نقل عمومی، دسترسی به اماکن مذهبی، دسترسی به دبستان و مهدکودک ها، دسترسی به مدارس راهنمایی تا پیش دانشگاهی و دسترسی به پارکینگ ها می باشند. سپس به کمک روش AHP-TOPSIS نقشه رتبه بندی گزینه ها تولید شد. نتایج این تحقیق نشان می دهد که محله های رضویه، سرحوض، لبچال، نوبهار و سربخش دارای بهترین وضعیت در میان محلات از لحاظ شاخص قابلیت پیاده روی می باشند. همچنین محلات باغ کرباسی، براسون و شهرک فاطمیه دارای بدترین وضعیت از لحاظ شاخص قابلیت پیاده روی هستند. به طور کلی محلات مرکزی دارای شرایط بهتری نسبت به محلات مرزی می باشند. ارزیابی نهایی نتایج توسط نظرسنجی با طیف پنج امتیازی عالی، خوب، متوسط، ضعیف و خیلی ضعیف انجام شد. نتایج نظرسنجی نشان می دهد که دسترسی به پارکینگ دارای پایین ترین امتیاز و اختلاط کاربری دارای بالاترین امتیاز می باشد.
    کلیدواژگان: شاخص قابلیت پیاده روی، TOPSIS، حمل و نقل غیرموتوری، توسعه پایدار شهری، سیستم اطلاعات مکانی
  • یاسر جویباری مقدم *، مهدی آخوندزاده، محمدرضا سراجیان صفحات 175-187
    ضریب گسیل سطح از شاخص های مهم در تخمین بودجه انرژی، ارزیابی پوشش های زمینی، مطالعه انتقال گرمایی و مطالعات سطح می باشد. ضریب گسیل سطح می تواند به عنوان شاخصی، بیانگر ساختار تشکیل دهنده مواد باشد. علاوه براین تعیین دمای سطح زمین بدون تخمین مناسبی از ضریب گسیل امکان پذیر نیست. دراین تحقیق روشی برای تعیین ضریب گسیل سطح از دو باند حرارتی ماهواره لندست-8، باند های 10 و 11، براساس شاخص های گیاهی ارائه شد. برای این منظور هفت شاخص گیاهی مورد بررسی و آنالیز قرار گرفتند. این تحقیق از سه بخش اصلی تشکیل شده: 1) طراحی و ساخت داده های شبیه سازی شده برای لندست-8 2) انجام آنالیز های همبستگی و حد آستانه بین شاخص های گیاهی و ضریب گسیل 3) انجام رگرسیون بین ضریب گسیل و شاخص های گیاهی. ابتدا با استفاده از کتابخانه طیفی و تابع پاسخ طیفی باندهای لندست-8 داده های شبیه سازی شده برای این ماهواره طراحی شد و سپس با استفاده از داده های شبیه سازی شده آنالیز همبستگی و حد آستانه برروی هفت شاخص گیاهی و ضریب گسیل انجام شد و در نهایت با استفاده از روش کمترین مربعات و رگرسیون بردار پشتیبان، بین شاخص های گیاهی و ضریب گسیل رابطه ای طراحی شد. روش پیشنهادی با استفاده از داده های شبیه سازی شده مستقل مورد ارزیابی قرار گرفت که خطای ریشه کمترین مربعات برای ضریب گسیل باند 10 و11 به ترتیب برابر 007/ 0 و 009/ 0 بود. لذا با توجه به سادگی و عدم نیاز این روش به داده جانبی، روشی مناسب در تعیین ضریب گسیل سطح از لندست-8 می باشد.
    کلیدواژگان: ضریب گسیل سطح، شاخص گیاهی، رگرسیون بردار پشتیبان، لندست، 8
  • میر مجید موسوی *، جلال امینی، یاسر مقصودی صفحات 189-202
    وجود اسپکل در تصاویر رادار امری اجتناب ناپذیر است. نویز اسپکل یک آشفتگی نقطه ای است که معمولا به عنوان نویز ضرب شونده در تصاویر تک پلاریزه مدل می شود. این نویز که وابسته به سیگنال است به دلیل نوسانات فاز سیگنال های بازگشتی امواج الکترومغناطیسی بوجود می آید که به صورت نقطه نقطه ظاهر می شود. حضور اسپکل، تفسیر و آنالیز تصویر را پیچیده تر می کند و باعث کاهش دسترسی به اطلاعات تصویر می شود لذا انتخاب الگوریتم مناسب کاهش نویز اسپکل حائز اهمیت است. در مقاله حاضر ابتدا به توضیح فیلترهای متداول کاهش اسپکل مانند: میانگین، کوان، فراست، لی، لی بهبودیافته و گاما-مپ پرداخته شده، سپس بر طبق ویژگی های آماری اسپکل و ویژگی های بافتی تصویر SAR یک الگوریتم تطبیقی برای کاهش نویز اسپکل با پنجره تغییرپذیر از لحاظ بعد بر پایه انحراف معیار نسبی پیشنهاد شده است. برای بررسی و ارزیابی الگوریتم پیشنهادی و سایر فیلترهای متداول، از یک تصویر شبیه سازی شده چهار-دید SAR و دو تصویر واقعی، اخذ شده از دو سنجده هوابرد مختلف، استفاده شد. نتایج تجربی نشان دهده عملکرد رضایت بخش الگوریتم پیشنهادی در حذف اسپکل، همراه با حفظ بسیار خوب ویژگی های لبه، اهداف نقطه ای و میانگین تصویر نسبت به سایر فیلترها می باشد. به عنوان مثال شاخص های ENL و SNR برای برای ناحیه 1 از تصویر اول به ترتیب 17.22 و 7.91 بود که بالاتر از مقدار سایر فیلترهای متداول بود.
    کلیدواژگان: رادار با روزنه ترکیبی(SAR)، فیلتر اسپکل، انحراف معیار نسبی
  • محمدرضا ملک *، علی سبزعلی صفحات 203-213
    نظریه مجموعه های فازی شهودی، تعمیمی از نظریه مجموعه های فازی می باشد که در آن می توان علاوه بر تابع عضویت از تابع عدم عضویت هم استفاده کرد. این مزیت موجب شده تا بعضی از محدودیت های نظریه فازی معمول مثل پشتیبانی از شک و تردید را برطرف سازد. از طرفی با توجه به اینکه یکی از مسائل موجود در گراف، یافتن کوتاهترین مسیر در شرایط عدم قطعیت و نبود اطلاع کافی از فاصله هاست. با توجه به نکات ذکر شده در این مقاله الگوریتم کوتاهترین مسیر دایجسترا برای گراف با یال های فازی شهودی در شرایط کمبود اطلاعات تعمیم داده شده است. در روش ارائه شده در مقاله برای مقایسه مسیرها از روش انتگرال-گیری استفاده شده است. در نهایت الگوریتم روی یک شبکه با ابعاد مناسب آزموده شده و با حالت فازی معمولی مقایسه شده است.
    کلیدواژگان: گراف فازی شهودی، مسئله کوتاهترین مسیر، الگوریتم دایجسترا، اعداد فازی شهودی، نایقینی
  • یاسر جویباری مقدم *، مهدی آخوندزاده، محمدرضا سراجیان صفحات 215-226
    دمای سطح زمین و ضریب گسیل سطح دو شاخص مهم در مطالعات مربوط به سطح زمین هستند. این شاخص ها، از شاخص های مهم در زمینه های تخمین بودجه انرژی، ارزیابی پوشش های زمینی و مطالعه انتقال گرمایی می باشند. هدف اصلی این تحقیق ارائه الگوریتمی جهت تخمین ضریب گسیل سطح و دمای سطح زمین از تصاویر ماهواره لندست-8 است. الگوریتم پیشنهادی جهت تعیین دمای سطح زمین، روش پنجره مجزا بر پایه ی باند های 10 و 11 سنسور حرارتی ماهواره لندست-8 می باشد و همچنین جهت تعیین ضریب گسیل روشی بر مبنای استفاده از شاخص NDVI ارائه شده است. این تحقیق از دو مرحله اصلی تشکیل شده است: در مرحله اول با استفاده از داده های شبیه سازی شده که بر اساس کتابخانه طیفی استر طراحی شدند، رگرسیون خطی بین ضریب گسیل سطح برای باند های10 و11 ماهواره لندست-8 با شاخص NDVI ایجاد شد. در مرحله دوم با استفاده از داده های شبیه سازی شده که با استفاده از MODTRAN طراحی شدند، الگوریتمی پنجره مجزا برای محاسبه دمای سطح از داده های ماهواره لندست-8 طراحی و ارائه شد. در پایان جهت ارزیابی روش پیشنهادی از سه مجموعه داده مستقل شبیه سازی شده، زمینی و ماهواره ای استفاده شد. نتایج ارزیابی با استفاده از این سه مجموعه به ترتیب خطای RMSE برابر با 21/ 1، 91/ 1 و 03/ 1 درجه را نشان دادند. بنابراین روش پیشنهادی، روشی مناسب و قابل قبول جهت تعیین دمای سطح زمین از تصاویر ماهواره ای لندست-8 می باشد.
    کلیدواژگان: ضریب گسیل سطح، دمای سطح زمین، پنجره مجزا، MODTRAN، لندست، 8
  • علی اصغر حیدری، رحیم علی عباسپور* صفحات 227-240
    تاکنون الگوریتم های گوناگونی جهت تکمیل و ارتقای زیرساخت سامانه های ناوبری خودکار سیستم های پرنده بدون سرنشین ارائه شده است. بااین حال، کوشش های اندکی در طراحی مسیریاب های آشوب بنیاد به منظور تعیین خط سیر بهینه این سیستم ها در سناریوهای شهری انجام گردیده است. در این مقاله، مسیریاب پیشنهادی به گونه ای پیاده سازی می شود که با در نظر گرفتن قیود ماموریت نظیر زوایای چرخش و پارامترهای دینامیکی پرواز، نواحی ممنوعه، حدود نقشه و ارتفاع ایمن، پارامترهایی شامل ارتفاع پرواز، طول مسیر و میزان مصرف انرژی را کمینه نماید. بدین انگیزه، نخست یک مدل جامع جهت توصیف مساله مسیریابی سکو ارائه گردیده و سپس بر پایه تلفیق تئوری آشوب و محاسبات تکاملی، چهار الگوریتم تکاملی آشوب مبنای جدید پیشنهاد می گردد. در ادامه، تحلیل و ارزیابی جامع کارکرد الگوریتم های ارائه شده در مساله مسیریابی بر پایه نرخ موفقیت، دقت و کیفیت پاسخ ها، زمان اجرا و سرعت همگرایی انجام می گردد. ارزیابی نتایج مبین کسب برترین نتایج با به کارگیری الگوریتم تکامل تفاضلی با سیگنال آشوبی لجستیک می باشد.
    کلیدواژگان: مسیریابی، سیستم های پرنده بدون سرنشین، تئوری آشوب، محاسبات تکاملی، تکامل تفاضلی، رقابت استعماری، توده ذرات، زنبورعسل مصنوعی
  • محسن صابر *، فرهاد صمدزادگان، همایون زحمتکش صفحات 241-256
    کشف، به اشتراک گذاری، تلفیق و بکارگیری بموقع اطلاعات مکانی چالش های اساسی در حوزه ی واکنشهای اضطراری و مدیریت بحران است. بدلیل ماهیت توزیع یافته ی منابع پردازشی و داده ها در مدیریت بحران، استفاده از معماری سرویس مبنا با بهره مندی از زنجیره ی سرویس ها راهکاری بهینه، انعطاف پذیرو مطمئن برای مقابله با انواع موقعیت های بحرانی است. دستورالعمل استاندارد Web Processing Service (WPS) پردازش داده های مکانی در یک معماری سرویس مبنا را به راه حلی کارا و پذیرفته شده برای پردازش داده های سنجش از دور تحت وب تبدیل نموده است. این مقاله یک معماری برمبنای وب سرویسهای OGC ارائه می دهد که طی آن با اخذ و پردازش تصاویر ماهواره ای، نقاط آتش سوزی استخراج و به افراد ثبت شده در سیستم مخابره می شود. در این معماری ترکیبی از وبسرویسهای پردازشی و داده ای برای تشخیص خودکار نقاط آتش سوزی از تصاویر MODIS و نمایش و اطلاع رسانی آن بکار رفته است. مجموعه ای از پردازشها تحت یک سرویس WPS در معماری های متمرکز و آبشاری برای استخراج نقاط آتشسوزی تجمیع گشته است. بدین منظور انواع معماری ها، روش ها و ابزار ترکیب سرویسهای مکانی مورد مطالعه قرار گرفته است و نقاط قوت و ضعف آنها معرفی شده است. با توجه به ابزار و محدودیتهای موجود، وبسرویس استاندارد WPS برای ترکیب مورد استفاده قرار گرفته است. در این تحقیق نقش WPS بعنوان یک میان افزار در حوزه ی وبسرویسهای مکانی برجسته شده است که قادر به فراخوانی گستره ی وسیعی از عملگرهای مکانی و زنجیره سازی سایر وب سرویس ها بعنوان یک موتور ترکیب می باشد. کارآمدی معماری مطروحه در قالب یک کاربرد واقعی از سوانح بحرانی به منظور کشف، نمایش و مخابره ی نقاط آتش سوزی ارزیابی شده است. یک مخدوم مکانی با استفاده از ابزار و نرم افزارهای متن باز توسعه ی کاربردهای تحت وب برای بارگذاری داده های MODIS، ایجاد درخواست اجرای پردازش در قالبی استاندارد، بازیابی خروجی های مورد نظر و ارسال نقاط آتش سوزی پیاده سازی شده است. بررسی قابلیت ها و مزایای این چارچوب ترکیب سرویس نشان دهنده ی امکان بکارگیری این رویکرد در انواع کاربردهای مکانی مخصوصا مدیریت بحران و پایش های محیطی می-باشد.
    کلیدواژگان: تشخیص آتشسوزی، ترکیب سرویس، (Web Processing Service (WPS، سیستم هشدار به موقع، مدیریت بحران
  • کمال پروازی *، جمال عسگری، علیرضا امیری سیمکویی، بهمن تاج فیروز صفحات 257-269
    در هیدروگرافی سنتی معمولا چارت دیتوم با استفاده از آنالیز طیفی مشاهدات تاید گیج های ساحلی و بر اساس پایین ترین سطح آب بدست آمده از این داده ها تعیین می شود. این در حالی است که با توجه به اختلاف بین دامنه و فاز مولفه های جزرومدی در نقاط مختلف، چارت دیتومی که به این صورت تعیین می شود تنها بیانگر چارت دیتوم در محل نصب تایدگیج و اطراف ساحل بوده و برای منطقه ی عمق یابی که چند ده کیلومتر دور از ساحل می باشد معیار صحیحی نخواهد بود. در این تحقیق به تعیین مدل جدایی بین چارت دیتوم و بیضوی مرجع WGS84 با استفاده از داده های ماهواره ی Topex/Poseidon بین سال های2003-1992 و Jason-1 برای بازه ی زمانی 2008-2002 و اطلاعات تاید گیج های ساحلی در منطقه خلیج فارس و دریای عمان پرداخته شده است. در این تحقیق روش جدیدی برای جدایی بین چارت دیتوم و بیضوی مرجع با تلفیق داده های ارتفاع سنجی ماهواره ای و اطلاعات تایدگیج های ساحلی ارائه شده است. برای تعیین این مدل تغییرات تراز آب دریا در اثر جزرومد، حرکت قطبی و حرکات صفحات تکتونیکی و همچنین تمام مولفه های موثر در پتانسیل جزرومد از مولفه هایی با تاثیر زیاد (M2،S2،K1،O1) تا مولفه هایی با تاثیر کمتر مانند مولفه هایی با پریود14روزه، ماهیانه، نیم سالیانه، سالیانه و 5/ 8 سالیانه و 6/ 18 سالیانه به عنوان 30 فرکانس موثر در منطقه مورد نظر در نظر گرفته شده اند. جدایی بین چارت دیتوم و بیضوی مرجع از طریق مقایسه داده های تایدگیج و ارتفاع سنجی ماهواره ای برای بازه ی زمانی 2005-2002 انجام شده است.
    کلیدواژگان: Topex، Poseidon، Jason، 1، ارتفاع سنجی ماهواره ای، بیضوی WGS84، تاید گیج های ساحلی، چارت دیتوم، خلیج فارس، دریای عمان
  • عبدالرضا صفری، سیمین کلانتریون *، هادی امین صفحات 271-285
    پدیده جزرومد از موضوعات مورد توجه محققان در جامعه ژئودزی، ژئوفیزیک، علوم دریایی و اقیانوس شناسی بوده و در امور مهندسی دریا، ناوبری، امور نظامی دریایی، کشتیرانی، حمل و نقل دریایی، تاسیسات نیرو در مناطق دریایی و بنادر، صنعت شیلات و شهرسازی بنادر از اهمیت بالایی برخوردار است. با اطلاع دقیق از فرکانس های جزرومدی می توان پدیده جزرومد و همچنین سطح آب دریا را پیش بینی کرد. برای تعیین فرکانس های جزرومدی روش های متعددی وجود دارد که از آن جمله می توان به روش کمترین مربعات (LSSA) و آنالیز فوریه و حتی روش های آماری اشاره کرد. در تحقیق حاضر به منظور تعیین فرکانس های جزرومدی در دریای خزر از روش آنالیز فوریه با تکیه بر مفهوم ایستایی سری زمانی استفاده شده است. بدین ترتیب که ابتدا برای بررسی دقیق تر داده ها و نمود بهتر سایر نوسانات موجود در سری های زمانی، مولفه روند با استفاده از سری های فوریه از داده ها حذف گردید. سپس فرکانس های تشکیل دهنده سری زمانی از طریق آنالیز فوریه و روش کمترین مربعات به همراه دامنه و فاز مشخص شدند و برای تشخیص مولفه های اصلی جزرومد در این تحقیق از مفهوم ایستایی در دو مرحله استفاده شد. برای بررسی کارایی روش پیشنهادی در 7 نقطه در دریای خزر با استفاده از داده های ماهواره ارتفاع سنجی Jason-2 در بازه زمانی 2008 تا اوایل 2014 سری زمانی ارتفاع لحظه ای آب دریا تشکیل و با روش پیشنهادی مولفه های اصلی جزرومدی محاسبه شده است. بررسی نتایج و مقایسه با تحقیقات پیشین نشان دهنده موفقیت روش پیشنهادی در شناسایی مولفه های اصلی جزرومدی دریای خزر است. به دلیل تاثیر رودخانه ولگا بر نوسانات دریای خزر و حجم آب ورودی بسیار زیاد این رودخانه که حدود 80 درصد حجم آب ورودی رودخانه های منتهی به دریای خزر را به خود اختصاص داده است، با استفاده از تحلیل طیفی تاثیر رودخانه ولگا در تغییرات سطح دریای خزر نیز مورد بررسی قرار گرفته است.
    کلیدواژگان: فرکانس های جزرومدی، روش کمترین مربعات، آنالیز فوریه، ایستایی سری زمانی، ماهواره ارتفاع سنجی Jason، 2، فرکانس الایس
  • مهین جعفری *، مسعود مشهدی حسینعلی صفحات 288-297
    امروزه کاربرد سیستم تعیین موقعیت GPS به منظور محاسبه تعیین وضعیت یک سکو ی متحرک رایج شده است. به همین منظور، موقعیت نسبی آنتن های GPS با استفاده از اندازه گیری های کد و یا فاز محاسبه و مورد استفاده قرار می گیرد. سپس پارامترهای وضعیت از مختصات محاسبه شده استخراج می گردد. در این مقاله مشاهدات فاز چهار گیرنده تک فرکانسه GPS مورد استفاده قرار گرفته است تا وضعیت سکو محاسبه شود. همچنین به منظور برآورد دقیق این پارامترها، از مشاهدات فاز حامل GPS استفاده شده است. در صورتی که تنها از مشاهدات فاز حامل در مسئله تعیین وضعیت استفاده شود این مسئله به یک مسئله بدوضع تبدیل می شود. محاسبه مقادیر ابهام فاز و در نتیجه موقعیت نسبی با مشکل کمبود رنک ماتریس ضرایب مواجه است.. از آنجایی که الگوریتم Moore-Penrose و سایر الگوریتم های پایدارسازی باعث ایجاد خطا در جواب می شوند در این مقاله دو دسته قید بر مسئله اعمال شده است. اعمال قیود داخلی و پارامترهای وزن دار در روند سرشکنی معادلات مشاهدات ضمن برطرف نمودن مشکل کمبود مرتبه ماتریس ضرایب به برآوردی واقع بینانه تر از مجهولات می انجامد. این قیود باعث افزایش درجه آزادی می شوند. در نتیجه سرشکنی کمترین مربعات تخمین پارامترهای وضعیت ممکن می شود. در این مقاله پارامترهای وضعیت محاسبه شده با الگوریتم ارائه شده با مقادیر محاسبه از الگوریتم Moore-Penrose و مقادیر واقعی گزارش شده در مقاله ای دیگر مقایسه شده است. در ادامه نیز با تعریف یک چارجوب جسم مرجع جدید، برآورد کمترین مربعات پارامترهای وضعیت در صورتی که تنها از سه آنتن استفاده شود، ممکن شده است. با انتقال سیستم مختصات جسم مرجع تعریف شده در این مقاله به سیستم مختصات جسم مرجع قدیمی زوایای وضعیت را می توان به چارچوب قدیمی انتقال داد.
    کلیدواژگان: تعیین وضعیت، GPS، شبکه RTK، قیود داخلی
|
  • R. Shurouni *, M. R. Malek Pages 1-12
    The rapid growth of location-based social networks through attracting millions users، reveal the high popularity in the short time period. A result of the location based social network services، access to a large collection of data that can extract the spatial history، social relationships structure، movement behavior and characteristics of users. Social، spatial and temporal data analysis leads to create a wide range of location based services. By using statistical and knowledge discovery techniques for advising unvisited locations to users and decreasing large data volume problems، recommendation systems have become the popular services of these networks. Recommendation system is an approach to deal with the problems caused by large amount and growing volume of information and helps user to approach his/her goal among the enormous amount of information. In this paper، we design the novel GEO-FIF method to recommend unvisited places to tourists based on their location history. This time، location and preference aware recommendation system، offer a set of locations near to the user's current position with regard to the time term and the geographical distance between end user and other users as well user preferences that is extracted from visited locations. In the first stage، we survey the impact of the distance between users on common visited locations. Then we measure users’ interest into the locations by creating a user – location matrix within the period of one day and utilizing the content based filtering that for each user calculates a score for each place. In the next step by having the current position of the user، collection of places is limited according to their distance from the user. This is in addition to speed up processing and computing، increase recommendation accuracy. Finally، by using an innovative function، we estimate the similarity of the target user and other users based on the combination of the distance between them and the given score to places by other users. The score of a place for the target user is calculated by accumulative scores given by other users. In fact، we utilize collaborative filtering method to measure the similarity between users and predict the user interest to a new location based on accumulative scores of similar users. Finally combining these methods provides k unvisited locations within specific distance to user’s real-time location and its current time period. In this paper، Gowalla check-in data for Beijing، China were used in the period between October 2011 and November 2011. To evaluate the performance of the proposed method، the results of this method were compared with the results of two basic recommendation system methods in terms of rank accuracy indicator which is most common method for assessing recommender systems. The proposed method increases precision 15 and 12 percent in compared to user-based collaborative filtering using binary methods and GM-FCF، respectively.
    Keywords: Location based social network, Location History, Recommender system
  • M. Aslani *, M. Taleai Pages 13-24
    In GIS, data is organized in themes as spatial layers. One of the most significant tasks of GIS is to analysis, spatial layers in order to model spatial phenomena. Since spatial data in GIS are inherently uncertain, a system that handles and infers from such uncertain data is of vital importance. Insufficient consideration to spatial modeling can lead to several problems in spatial decision making, death toll, property damage, financial loss and other hardships.There is no analytical solution in most spatial modeling. For these modeling, methods inspired by nature sometimes work very efficiently and effectively. These biologically inspired methods are called Soft Computing. The modeling of mineral potential is one of the special cases of the problem of spatial modeling in which no comprehensive model has been developed for it. A mineral potential mapping which depicts the favorability of mineralization occurring over a specified area is an important process for mineral deposit exploration. The purpose of this paper is to suggest several soft computing methods such as a fuzzy inference system (FIS), neural networks and genetic algorithms in a GIS framework for mineral potential mapping.A typical FIS is composed of two main parts: The Knowledge Base (KB) and the Inference System. The KB composed of Data Base (DB) and Rule Base (RB) stores the available knowledge about in the form of linguistic “IF-THEN” rules. One of the major problems in constructing an FIS is to build the knowledge base. In the conventional design methods, the desired rules and functions are based on the expert's knowledge and experiences. However, we cannot perfectly represent the expert's knowledge by linguistic rules nor choose appropriate membership functions for fuzzy sets. Moreover, converting the expert's knowledge into if-then rules is difficult and often results are incomplete, unnecessary and include conflicting knowledge, since experts cannot express all their knowledge. These problems can be sorted out applying techniques to construct a fuzzy knowledge base of numerical input-output data. In this research, two methods of dividing the input-output spaces and neural network are implemented to deal with this problem.To evaluate the constructed FIS, the genetic neural network has been applied and its results compared to the results of the FIS. In a genetic neural network, genetic algorithm is used for neural networks in order to optimize the network architecture. As a matter of fact, the topology of the networks is encoded as a chromosome and some genetic operators are applied to find an architecture which fits best the specified task according to some explicit design criteria.Numerical experimentations showed that the genetic neural network used in this study is the most successful method. It could predict the characteristic of 85% boreholes correctly. The results also indicated that genetic neural network and FIS with RMSE of 4 and 15 respectively are more accurate methods.
    Keywords: Geospatial Information System, Fuzzy Inference System, Genetic Algorithm, Neural Networks, Mineral Potential Mapping
  • M. Karimi *, S. Abolhasani, M. Taleai Pages 25-42
    Introduction
    In the recent decades, raster based cellular automata (CA) models have been used increasingly in simulating land-use changes and urban growth because of simplicity of the computation and their conformity with remote sensing data. Current researches have introduced vector based cellular automata to tackle with some limitations that raster based conventional cellular automata models are faced with, such as sensitivity to spatial scale. The purpose of this study is modelling land use suitability to simulating land use changes through vector based cellular automata with application of cadastral parcels instead of pixel.
    Materials And Methods
    In the proposed model, urban land use suitability is evaluated based on physical suitability, accessibility and neighborhood effect. Two parameters of altitude and slope are combined together by weighted linear combination (WLC) method and are representative physical suitability and Euclidean distance of each parcel from the closest point of path network is utilized to measure accessibility factor. Spatial externalities of neighborhood land uses are important component in simulating land use changes and using cellular automata is justifiable if neighborhood rules, as heart of the cellular automata models, are defined correctly. One of the limitations of neighborhood rules is the lack of theoretical foundation and empirical validation. So, CA urban models are technology driven rather than theory, due to considering hypothetical ideas about urban dynamics. Therefore, neighborhood rules are often defined by trial and error. In this study, the neighborhood effect is defined based on a function of three components including compactness, dependency and compatibility and the way of land use interactions is studied in three service levels of local, district and regional. Compactness is the tendency toward creating a kind of land-use adjacent to another similar one; dependency is depending one land-use on the other land-uses for supplying its needs; and compatibility is defined as the arrangement of two or more land-uses together without any significant negative effects. The neighborhood effect of each parcel for each land-use is calculated from total effects of all adjacent parcels in the form of three classes of compactness, dependency and compatibility. It should be considered that each of factors has various impacts in land-use interactions and can be combined together with different weights, regarding the subject land-use. Therefore, relative importance of three factors is defined using expert knowledge captured based on AHP method and then the neighborhood effect of each parcel is computed using to WLC method.Results and
    Conclusions
    This model is implemented and assessed using data of Tehran 22 municipal region, in two scenarios: land use preference and maximum suitability. The results are illustrated high ability of the model in simulating land use interactions and presenting urban growth in an acceptable level of consistency among the urban land uses. Evaluating the results in the case study area shows an average score 0.77 and 0.55 in Scenario 1 and 0.75 and 0.47 in scenario 2 (from 0 to 1) for compatibility and dependency of new allocated parcels, respectively. The proposed model can be utilized by urban planners to assess different urban scenarios for better decision making and urban planning.
    Keywords: Land use suitability, neighborhood effect, cadastral parcels, vector, based cellular automata, GIS
  • S. Honarparvar *, A. A. Alesheikh Pages 43-53
    Modern cities require an optimum management of various spatial elements such as electrical distribution network, road network, urban servicing centers, and public facilities. Spatial information usually is stored in a geodatabase for a better data accessing, removing, adding, and transferring. Capital cities, generally, are experiencing many changes with respect to construction and land use. Tourism services quality, location and characteristics may change in such cities too. An example of such changes can be observed in restaurants. Thus, updating such geodatabases is very necessary, to gain tourists trusts in using a tourism application services (e.g. an application about finding desire restaurants). Traditional or authorized data acquisition’s methods consume huge amount of time and money, while Volunteered Geographic Information (VGI) are almost free of such limitations. Therefore, VGI has been considered as an alternative solution for some applications which do not require much money or have to be updated during a real time process. VGI has also been widely used when application developers expect automatic performance of a system. The aim of this paper is to put the capability of automatic updating to a geodatabase of restaurants information by Volunteered Geographic Information in practice. To do so, a mobile application has been built to collect volunteers’ data, but all input information should be confirmed for data qualification. Thus, the application should filter VGI data based on their quality. Therefore, VGI quality should be assessed first, and then the data with acceptable quality should be chosen and used in geodatabases. VGI quality inherits spatial data quality characteristics. Hence, it is multidimensional and includes various elements (e.g. positional accuracy, thematic accuracy, temporal accuracy, completeness, logical consistency and etc.) which are different in every application. In this paper positional accuracy, temporal accuracy, thematic accuracy and credibility are considered as effective elements of VGI quality. These elements should be integrated, because the geodatabase require an explicit parameter so as to decide which data deserves to join others. In such cases, Multi Criteria Decision Making (MCDM) methods can be useful for deciding how to integrate criteria to get realistic results. As experts from various fields evaluate the quality of elements, recognizing most important criteria is hard and it is arduous to specify weighs for each element. So, it is required to employ a method that decreases the effect of weighting criteria in MCDM operation. In this paper, among MCDM methods, Ordered Weighted Averaging fuzzy quantifier guided operator is selected to merge VGI quality elements and assess final quality. The proposed method tests various scenarios and help decision makers to decrease weighting effect. After testing the mobile application, final results demonstrated that the application is successful in completing information of 60% of restaurants. As a conclusion of the research, it is cleared that high thematic VGI quality will prevent errors in populated restaurants area.
    Keywords: Volunteered Geographic Information, automatically updating geo, database, OWA, fuzzy quantifiers, VGI data quality, restaurants, mobile application
  • A. Malek Nejad, H. Ghassemian *, F. Mirzapour Pages 55-64
    Most of common classification algorithms in remote sensing are based on spectral characteristics of pixels. These approaches ignore the spatial information of data, such as texture, in classification process. Simultaneous usage of texture and spectral information is a new trend in remote sensing image classification which has been considered in this study. We have evaluated the efficiency of gray-level co-occurrence matrix texture features (GLCM) extracted from panchromatic (PAN) image of ALI detector in improving the classification accuracy of Hyperion hyperspectral (HS) data in urban regions of Tehran. Classification is performed using a support vector machine (SVM) classifier with a Gaussian kernel. In our experiments, we have considered three different cases: a) classifying original Hyperion data, b) classifying Hyperion data pansharpened by color normalized transform (CNT), and finally, c) simultaneous use of GLCM texture features of panchromatic data and the spectral features of pansharpened data in classification process.In case b and c, for pansharpening HS data we have performed the following steps:1.Registering HS data with PAN data using ◦nineteen ground control points,◦polynomial warping of second order, and◦Nearest neighbor interpolation.1.Selecting a subset of HS bands which spectrally overlap with PAN image.1.Fusing the spatial information of PAN image into the HS subset bands, obtained in step 2, using CNT method.Moreover, as GLCM features, we have extracted 8 texture features from GLCM matrices: mean, variance, homogeneity, contrast, dissimilarity, entropy, angular second moment, and correlation. In order to assess the influence of the size of GLCM extraction window on the quality of texture features, we have considered various window sizes: 3×3, 5×5, 7×7, and 9×9.At the first phase of our experiments, we compared classification results obtained using the original HS data with the results obtained from the pansharpened HS subset – see Table 1. The results showed an increase of about 15% in the average classification accuracy when using the pansharpened data. At the second phase, we combined each of the texture features individually with the pansharpened HS subset. The results are given in Table 2. As the table suggests, regardless of the type of texture feature and the size of the GLCM extraction window, the combinations improve the overall classification accuracy (OA) of data. However, texture features show better quality when extracted from GLCM matrices obtained using 9×9 neighborhood windows. In addition, we observe that regardless of the size of GLCM window, dissimilarity feature delivers the best results.To summarize, by using the pansharpened HS subset instead of the original HS data, we achieved about 15% gain in the classification accuracy. Moreover, combining dissimilarity texture features –extracted from GLCM matrices obtained using 9×9 neighborhood windows– with the pansharpened HS subset improved classification results. In our experiments, we achieved about 5% increase in OA compared to that of using pansharpened HS subset alone.
    Keywords: Remote sensing, Hyperspectral imagery, Image fusion, Image texture, Classification
  • H. Yarmand, M. Mokhtarzedeh, A. Mohammadzadeh *, M. J. Valadan Zoej Pages 65-74
    The increasing number of satellite sensors, with various characteristics in terms of spatial and spectral resolution, motivates the developments of automatic methods for better exploitation of their huge available information content. In this regards high resolution satellite images, which provide very detailed and accurate information of the urban areas, have attracted more research attentions. As an early step, geo-referencing of satellite images are essential by which image position observations can be transformed to the ground position information. This process needs some accurate control points which are traditionally provided by human operators. Considering the time-consuming and tedious task of control point provision automatic feature extraction from satellite images, especially distinct point features, has been the subject of many researches in the last decades. In this paper a novel method is proposed for accurate automatic extraction of road intersection points in candidate regions. These point features, if accurately extracted, are applicable for image geo-referencing or image-to-image registration. Roads are presented as wide ribbons in high resolution satellite images which cause a considerable uncertainty about the exact position of their intersection points. This uncertainty, which makes road intersection extraction a difficult task for human operators, motivates the aim of this research to develop an automatic and accurate extraction method. In the first step of the proposed method the candidate intersection region is divided to three clusters via a simple K-means clustering. The largest cluster is than labeled to background and omitted from the rest of processing. In continue angular texture information, extracted from a rectangular element, is used to detect road pixels. Road edge pixels are then found via the famous canny edge detector. Among the detected road edge pixels those which are close to the junction are found using Circle Centered Edge analysis. In the last step, a novel vectorization scheme is proposed to find out the exact position of road junctions. This scheme, developed based on the proximity and parallelism concepts, includes the following sub-steps: 1) line fitting to edge pixels; here a line is fitted to the fist ten pixel and then the inclusion hypothesis of other pixels is verified by the evaluation of their distance to the fitted line, 2) eliminating the lines which are not related to road and determination of parallel lines, 3) grouping and merging of the same-type lines, 4) determining the co-side lines (i.e. road lines which are at the same side of a road segment) and 5) road centerline determination followed by positioning of the road intersection point. Given the road junction area, where at least 3 road segments intersect, the focus of this research is only on the exact and automatic positioning of the intersection point. The proposed method was implemented on four IKONOS sub-images taken from an urban area, Shiraz Iran, where in all cases the 0.5 accuracy proved the efficiency of the method. This method is also rotation invariant which means its applicability for all road segment orientations. Being resistant against the presence of vehicles and also the capability to extract more than one intersection points in a candidate region are other advantages of the proposed method.
    Keywords: Road Network Intersection, K, means, Angular texture, Circle centered around the junction, Line fitting
  • H. Amini, P. Pahlavani* Pages 75-92
    In this paper, an approach has been proposed in order to reconstruct the flat buildings using the LiDAR data and the digital aerial images; because on one hand, these types of buildings constitute the main structure of IRAN mega cities. On the other hand, separating the roof planes and reconstructing them is a challenging matter due to the fact that the normal vectors of the building roof planes are completely the same and there is not any intersection among them. In this regard, firstly, 16 potentially primary features were produced and the optimum features were extracted using the genetic algorithm and the KNN algorithm to detect the buildings. Subsequently, an approach was presented to eliminate the misclassified regions and to improve the detection results. In the designed reconstruction approach, each building parcel was considered separately in order to reduce data redundancy and increase the result accuracy. After selecting the considered parcel, an initial class for building roof planes was achieved by employing the surface slope differential. Actually, a threshold was specified and the regions with the slope differential value less than it were removed. Therefore, an initial class of primary planes were recognized and labeled by connected component algorithm. The roof planes were improved and detected completely by textural and altitudinal analyzing. The acceptable range was determined by computing the median minus the variance of the elevation in the plane to the median plus the variance. The median was selected as a criterion, because it is not sensitive to the noise of data and it causes to choose a reliable value. To identify the adjacent planes, the recognized plane was scanned row by row and column by column. In each row/column, the pixels with values more than zeros were extracted and analyzed. If there exists a variation, the pixels numbers were extracted and considered as the adjacent. Afterwards, the boundary nodes of each plane were extracted using the chain code algorithm. The optimum nodes should be selected as boundary and the planes should be placed beside each other without any intersection and gap. Hence, by investigating the distance and angle, very close nodes were removed and replaced by their mean. Also, the nodes that cause creating the intersection or gap were recognized and rectified in order to eliminate this error. Then by searching around of the extracted nodes, the corresponding terrain node for each boundary node was obtained. The equation of each plane was computed by the coordinates of the inner nodes in that plane. Finally, the equation of planes, extracted boundaries, and nodes of the floor were utilized for reconstructing the final model. The proposed approach was implemented on some building blocks with different structures and the accuracy of the reconstructed plane was evaluated in both altimetric and planimetric criteria. The evaluated results were shown 84.56% accuracy on average for planimetric reconstruction, 0.212 meter root mean squared error for planimetric corner coordinate, and 0.145 meter root mean squared error for altimetric reconstruction. These results clarify the good performance of the proposed approach for reconstructing buildings with flat roofs.
    Keywords: Detection, reconstruction, feature, flat roof, LiDAR, digital aerial image
  • M. Jafari *, Y. Maghsoudi, M. J. Valadanzoej Pages 93-108
    A number of classification algorithms have been proposed for PolSAR data. There are basically three approaches: (1) algorithms based on a statistical model, (2) algorithms based on the scattering mechanism of electromagnetic waves, and (3) knowledge-based algorithms. In the first category, classification is done based on the specified probability density function. The second approaches, the classification of PolSAR images are based on some form of target decomposition theories. Third approaches included two steps. First, extraction of knowledge from PolSAR data, and second application of this knowledge to the classification of other pixels. In these approaches it is possible to include scattering model results and common knowledge about the targets.The main purpose of the proposed method is the knowledge-based and object-based classification of PolSAR data. To improve the classification results, the contextual information should be considered for incorporation into the classifiers. For this, the object-oriented package eCognition was used to implement the object-oriented image analysis of PolSAR images. The multi-resolution segmentation module was used to perform object delineation in this study. Proposed method can apply prior knowledge, expert knowledge and data knowledge in the process of classification. A combination of Support Vector Machine and Decision Tree (SVM-DT) was presented for fusion of three level knowledge. The SVM based binary decision tree architecture takes advantage of both the efficient computation of the decision tree architecture and the high classification accuracy of SVMs. The SVM-DT architecture was designed to provide superior multi-class classification performance. Utilizing this architecture, N-1 SVMs needed to be trained for an N class problem, this can lead to a dramatic improvement in recognition speed when addressing problems with big number of classes. Since DTs are often constructed using a portion of the training patterns to accomplish individual classifications at each node, the node classifiers should be robust in the presence of “bad” samples or outliers. The SVM’s remarkable performance with regard to sparse and noisy data makes them suitable for binary classification trees.The incorporation of prior knowledge into SVMs is the key element that allows to increase the performance in many applications. In this paper the prior knowledge was used for compensating the unbalanced data in SVM classification. Furthermore, the expert knowledge provides information for designing a decision tree and a feature selection for classification algorithm. Also, the data knowledge was used in various classification steps e.g. features for SVM classification and feature selection. A Radarsat-2 image of the Petawawa forest area including six land cover classes: red oak (Or), white pine (Pw), black spruce (Sb), urban (Ur), water (Wa), and ground vegetation (GV) was chosen for this study. In this research, six experiments were provided for evaluating three level knowledge effect: Wishart, SVM, SVM-DT, object-based SVM-DT, object-based SVM-DT and feature selection, adding prior knowledge to object-based SVM-DT and feature selection. The results show the positive effect to forest classes for adding various knowledge to the classification. Although, the effect of some knowledge on other classes is non-positive. Eventually, the overall accuracy of the proposed method is 87.36. The proposed algorithm outperformed the Wishart classifier by 15% and SVM classifier by 9%.
    Keywords: Polarimetric SAR data, Knowledge, based classification, SVM, DT, Expert knowledge, Forest
  • P. Pahlavani *, S. Talebi Nahr, R. Karimi Pages 109-125
    As adaptive neuro-fuzzy inference system (ANFIS) has shown a high capability in solving various complicated problems, its usage has been increased so far. LiDAR is an active sensor which operates based on measuring distance by sending pulses to the ground and receiving the backscatters. This technology gives the 3D position of a point directly. Because of using millimeter level laser ranging accuracy, LiDAR is highly accurate. Dense point clouds of LiDAR can be directly used in simple applications, but the full manipulation of the LiDAR potentials and capabilities needs new methods and researches that differ from those in traditional Photogrammetry. The main output data of LiDAR are point clouds. Each point has two range and two intensity values for both the first and the last pulses. In some areas where there are some trees, the values for the first and the last pulses may differ, in which the first pulse data includes upper surfaces of trees, whereas the last pulse data includes lower surfaces, mainly ground. ANFIS is able to deal with large amounts of data with linear or nonlinear relations. In our study, the combination of digital aerial images and LiDAR data were used for the first time to probe the capabilities of the ANFIS as a classifier. The fact of non-linearity and ambiguity of this combination makes this challenge so hard. The main goal of this research is to detect buildings in city scenes from digital aerial images and LiDAR data using the ANFIS. In this regard, a genetic algorithm is run for feature selection. Four features were selected by genetic algorithm. These features were generated as ANFIS inputs including Green band, normalized difference vegetation index (NDVI), and normalized digital surface model (nDSM) using two different algorithms via morphological operations. The proposed ANFIS used three different algorithms to build its fuzzy inference system structure including grid partition, subtractive clustering, and fuzzy c-means clustering. Also, as there are many methods in building and tree detection as mentioned before, the main question is which of them is better among the others? This is not an easy question to answer because these methods are not evaluated over a unique data-set. To overcome this problem, fourth working group of third commission (WG III/4) in the international society of photogrammetry and remote sensing (ISPRS) has provided some benchmark data-sets, and has encouraged all researchers around the world to evaluate their methods on these data-sets. The results were evaluated on three different test areas, known as Areas 1, 2, and 3. The achieved results were compared with each other, as well as with ISPRS WG III/4 participants’ results, by considering Completeness, Correctness, Quality, and RMS indices per-area and per-object levels. The achieved results demonstrated the capability of the proposed ANFIS in detecting buildings in complex city scenes in comparison with other methods. Although there are some typical errors among participants’ results, most of these errors have resolved in ANFIS-base approaches. Proposed ANFIS-based methods achieved Completeness of 100% in all three test areas for buildings larger than 50 m2.
    Keywords: ANFIS, LiDAR, nDSM, Building Detection, Aerial Images
  • R. Attarzadeh *, J. Amini Pages 127-138
    Satellite image classification is considered as one of the most common approach for information extraction from remotely sensed data. With the advent of microwave sensors and taking into account the advantage of distinctive characteristics of the microwave range in electromagnetic spectrum extraction of different information in comparison to optical sensors are provided. Polarimetric information has significant implications for identifying different phenomena and distinguishing between them. In synthetic aperture radar imagery unlike hyperspectral imagery, where in spectral bands provide required features for pattern recognition process, we need to construct such features. Nowadays we can extract a wide range of features from polarimetric images using target decomposition theorem and SAR descriptors. In this paper at the first stage we try to extract features in three categories including original data features, decomposition features and SAR parameters. Then SVM algorithm with RBF kernel is used to classify polarimetric image. Due to the binary nature of support vector machines algorithm, the one against all approach is used to perform a multi-class classification. In this approach for m class m binary classifier are considered. In this study the genetic algorithm is used in order to calculate kernel parameters, feature space dimension reduction and selection of optimal features. In this study the superior performance of SVMs achieved by simultaneously optimization of SVMs parameters and input feature subset on Polarimetric imagery are demonstrated. The other point of the paper is higher accuracy of SVM classifier by kernel parameter selection using genetic algorithm and considering all the features in relation to optimal feature selection using genetic algorithm and kernel parameter selection using grid search. In another section of this study object based image analysis is used to compare the performance of SVM classifier in conjunction with genetic algorithm with OBIA. In OBIA approach, at the first stage, an image to be analyzed is segmented into individual image objects in an object based approach. The image pixels from the image are grouped to form the objects in a segmentation process. The created image objects should represent the objects in reality. In this research, multiresolution segmentation algorithm was used to create the image objects. By delineating objects from images, object based image analysis enables the acquisition of a variety of additional textural and spatial features, which are helpful in improving the accuracy of polarimetric image classification and also reducing the effect of speckle in PolSAR images by implementing classification based on image objects, and the textural information extracted from image objects. To extract optimal features, it is essential to use an appropriate analysis tool. For this purpose, in this paper SEaTH analysis tool was used. In this method, by using Jeffries-Matusita’s measure, the features are extracted as the optimal features in an appropriate separation of the probability distribution function for the training samples belonging to different classes. The proposed method was applied to the RADARSAT-2 imagery of an urban area in fine quad polarimetric mode. This imagery was selected in order to include a variety of land cover categories i.e. urban, water, bare soil and vegetation. The results demonstrated that the accuracy of OBIA approach is higher than support vector classification using grid search and all input features. Finally, we demonstrate that classification accuracies are significantly higher by simultaneously optimization of SVMs parameters and input feature subset on Polarimetric imagery.
    Keywords: Synthetic Aperture Radar, PolSAR, Support Vector Machine, Genetic Algorithm, Object Based Image Analysis
  • Z. Masoomi * Mesgari Pages 139-157
    In urban space, the need to different facilities and diverse land uses increases continuously. Continuous changes in the demands of the citizens results in rapid and frequent land use changes. Therefore, dynamic characteristics of urban environment should be considered in urban planning. On the other hand, land uses have different effects on each other. In other words, any change in the land use of a parcel or zone, will results in tendency of its neighboring parcels for land use change. Therefore, proposing of new land use arrangements after any occurred land use change could be a proper response to such tendencies. The main goal of this study is to propose a method, based on GIS and NSGAII optimization algorithm, for generating optimum land use arrangements after any occurred land use change.Usually, the output of a multi-objective optimization algorithm is a collection of optimum solutions. Selection of appropriate solution from such a collection needs extra efforts and processes. Therefore, another goal of this research is to use an appropriate clustering method that helps the user to select the most preferred solution. With such a method, the decision maker can introduce his planning priorities, perceive the resulted scenario and select accordingly. In this research, ant colony clustering algorithm is used for clustering, first because of its high speed, and then because the representative of the clusters are selected from the Pareto front solutions. In this research, for modelling of the aspects of land use change and its factors, four objective functions are considered, which are: the maximization of land use compatibility, the maximization of land use dependency, the maximization of land use suitability, and the maximization of land use compactness. Finally, the providence of per capita for different land uses is considered as constraints. The ant colony clustering algorithm is used for clustering of the found solutions (land use arrangements). The developed method is implemented and tested using the data related to some districts of region 7 of Tehran.Different evaluations are considered and carried out for the results of optimization. These include the convergence trend, repeatability test, and the comparison of the previous land use arrangement with the optimized ones. In the resulted optimized land use arrangements, the levels of objective functions are much better than the previous arrangement. Furthermore, the required per capita for different land uses are much better satisfied. The highest improvement in the objective functions is 36%, which is related to land suitability. In addition, the required per capita is improved by 18.5% of. The results of clustering using ant colony clustering algorithm are compared with those of K-means and Fuzzy K-means. The comparison showed that the ant colony clustering algorithm is faster. In addition, the results of this clustering method are exactly the original solutions of the land use arrangement optimization.Finally, the developed method can help urban planners and decision makers to correct and change the detailed urban plans according to any occurred land use change. One of the limitations of the detailed urban land uses plans is that they are not flexible and cannot opt to the deviations from the plan. This research is one step in the development of a general approach to dynamic urban planning. Such a planning approach can respond to the continuous and dynamic changes of the land uses in urban space.
    Keywords: Urban Land use Planning, Land Use Change, Multi Objective Optimization, Clustering, GIS, Decision Support
  • A. Sabzali Yameqani *, A. A. Alesheikh Pages 159-174
    The growing trend of urbanization has led to an unsustainable environment that become one of the main concerns of today’s city managers. Nowadays, the role of transportation in sustainable urban development is very clear and undeniable. On the other hand, the need for sustainable transportation reinforces the idea of using non-motorized transportation. Non-motorized transport is a form of entertainment and recreation, and can provide the possibility of cheaper trips. The walkability index is one of the important issues in the non-motorized transportation. The determination of walkability index leads to the recognition of environment as a factor affecting the extent of encouragement of individuals to walk and ride bicycle. As a result, one can improve the existing conditions so as to enhance the physical activity level of individuals in a society. The existing methods of determining the walkability can be summarized into three types: 1- objective; 2-subjective, and 3-experts’ field studies. The objective methods determine the extent of walkability index through GIS data. The subjective methods measure the walkability index with the help of public opinions (i.e. survey). The field-study methods collect the experts’ viewpoints and comments so as to measure walkability index. The objective methods usually use certain parameters such as population density, dwelling density, land-use diversity, access to stores and urban services, connectivity, intersection density and network density. All across the urban planning community, much effort is currently being put into providing safe and friendly environments that encourage walking in cities. The main goal of this study is to develop a simple yet efficient measure that captures properties of pedestrian friendliness, which is region-specific, and that can be particularly useful to urban planners and metropolitan planning organizations. In this research, the development of the walkability index in the city of Qom has been introduced. Parameters affecting the walkability index were identified and assessed. These parameters include: Land-use diversity, population density, intersection density, network density, access to public transportation, access to religious sites, access to primary schools and kindergartens, access to secondary to pre-university schools and parking sites. A noteworthy point considered in all of the parameters is the normalization of results (i.e., keeping its values between 0 and 1). Then, the ranking of the alternatives was produced using AHP-TOPSIS method in five age/sex classes. The target population of this research is people who are willing to walk for daily tasks and recreation. The result of this study showed that the districts of Sarehoz, Razaviye, Labechal, Nobahar, Pamenar, Chehel Akhtaran, Sarbakhsh, Niroghah, Zad, Zandian, Emam hosein town, Vadiassalam, Darvaze Rei and Ali Abad Sadegan have the best condition among other districts. Also, the districts such as karbaschi garden, Berasun, Yazdanshahr, Shah seiied ali, Fatemiye town, Noghatar, Kasegarha, Panzdah khordad and Bajak two have the worst condition. Generally, the central districts have better conditions than the others. Final evaluation of results by five Likert questionnaire (strong, good, moderate, weak, and poor) were done. Finally, the result showed that the access to parking has the weakest point and the land-use diversity has the highest effect on the proposed walkability index.
    Keywords: Walkability index, TOPSIS, Non, motorized transportation, Sustainable urban development, GIS
  • Y. Jouybari Moghaddam *, M. Akhoondzadeh, M. R. Saradjian Pages 175-187
    Land Surface Emissivity (LSE) is a significant parameter in many different land surface studies. It can be used as an index for analyzing the structure of the material. Furthermore, LSE estimation is a significant factor in the land surface temperature estimation from remotely sensed data. In this study we presented a novel operational algorithm for retrieving LSE from Landsat-8 thermal bands (i.e.: band 10 and 11) based on vegetation index (VI). The study includes three steps: I) building up simulated dataset for Landsat-8 bands II) threshold determination for VIs and correlation analysis between VIs and LSE III) derivation regression between LSE and Vis. First, the simulated dataset has been built up based on spectral library and spectral response function of Landsat-8. ASTER Spectral Library (ASL, http://speclib.jpl.nasa.gov) and Vegetation Spectral Library (VSL), which is published by system ecology laboratory at the University of Texas at EL Paso in cooperation with the colleagues in University of Alberta (http://spectrallibrary.utep.edu/SL_browseData), were used to build up simulated dataset. These Library contain directional hemispherical reflectance of the different type’s area. Then the threshold has been determined for each VIs and correlation analysis has been done between each VIs and LSE. The correlation between the vegetation indices and emissivity values was analyzed. The vegetation indices that were tested include: the Simple Ratio, SR, the Normalized Difference Vegetation Index, NDVI, the Enhanced Vegetation Index, EVI, Transformed Vegetation Index, TVI, Soil-Adjusted Vegetation Index, SAVI, Leaf Area Index, LAI and the Modified Soil-Adjusted Vegetation Index, MSAVI. The results of this analysis show that the correlation between VIs and emissivity is acceptable; therefore these indices are used for retrieving LSE. The results show that the maximum correlation occurred between NDVI and Emissivity, also the minimum occurred for MSAVI. For determining the threshold in this study we assumed that the area can be separated into three categories, including bare soil area, vegetated area and partially vegetated (mixed area). Then the statistical parameters (max, min, mean and standard deviation) for each category (bare soil, vegetation and mixed area) were calculated and based on these parameters, threshold values were determined for each category. Finally, regression relations have been derived to estimate LSE based on VIs. Support Vector Regression, SVR, and least square method were used for this regression. The RMSE of regression is different for each VIs. However, this value is less than 0.0035 for all VIs. The minimum of them occurred for NDVI and TVI also the maximum is for MSAVI. The presented method was evaluated by using an independent dataset. The result shows that the RMSE of LSE for band 10 and 11 is less than 0.007 and 0.009 respectively. The presented method is robust for estimating LSE from Landsat-8 satellite imagery and also is simple and do not need any auxiliary data. For further study, local comprehensive dataset can be built up and also the effect of atmospheric parameters or dust on regression coefficients can be analyzed.
    Keywords: Land Surface Emissivity, Vegetation Index, SVR, Landsat, 8
  • M. Mousavi *, J. Amini, Y. Maghsudi Pages 189-202
    The existence of speckle in Radar images is an inevitable occurrence. The speckle noise is a granular disturbance that models often as a multiplicative noise in single-channel SAR images. This noise that dependent on signal, introduces for variations of phase of returned signals that appears as point-point pattern. Being speckle, make complex more the explanation and analysis of images and also decrease the access to the image data, so it is important which appropriate speckle-reduction algorithm should be choosing. therfore, a section is allocated to the introduction of speckle noise model. It provides some important facts about how the speckle formed and explains which probably density function is followed by the amplitude and the intensity image. Several adaptive filtering methods have been discussed to deal with issue in this paper such as: Mean, Kuan, Frost, Lee, enhanced Lee and Gamma-MAP. Then according to statistic characteristics of speckles and texture characteristics of SAR images an adaptive speckle-reduction algorithm with size-changeable window based on relative standard deviation have been put forward. This new algorithm uses a moving window like other typical filters, but its window is divided to four smaller windows that every of them is called subwindow. The relative standard deviation of every subwindow is used as compare factor. If all subwindows are in homogenous region the mean filter is applied on whole initial window. And if any subwindow has the edge or high-frequency information, it must be omitted from proceeding process. The proposed filter is size-changeable because, if all subwindows are not accepted by the rules, the filter need to reduce the size of initial window to provide a region for filtering process.This paper benefits some worthy indices to demonstrate the ability of proposed filter against common filters such as equivalent number of looks (ENL), speckle suppression and mean preservation index (SMPI), edge save index (ESI), mean square error (MSE) and signal to noise ratio (SNR). To analyze the proposal algorithm and other common filters, used a simulated four-look SAR image and two real SAR images i.e. Flevoland dataset from AirSAR airborne SAR sensor and Oberpfaffenhofen dataset from ESAR airborne SAR sensor, respectively. The simulated SAR image is determined according to multiplicative model and gamma distribution. It is used to show a primary evaluation of proposed filter and other filters. In the first step, the results are satisfying. For example, the indices of standard deviation (SD) and ELN for the proposed filter are 39.53 and 192.59 that in comparison to other filters are gratifying and agreeable. In the next step, the all filters that are described in this paper are applied on Flevoland dataset. As the experience results show, the proposal algorithm has a satisfying performance in removing speckle noise along with very good saving edge characteristics, targets scene and mean of image toward usual speckle-reduction filters. For instance, the indices of ENL and SNR for area 1 of first image are 17.22 and 7.91, respectively, that are highest values between other common filters. To survey more precisely, the mean and the enhanced Lee filters are selected to compare to the proposed filter by second real dataset in the ways of ability to remove speckle, preserve edge and maintain point target.
    Keywords: synthetic aperture radar (SAR), speckle filter, relative standard deviation
  • M. R. Malek *, A. Sabzali Pages 203-213
    Finding the shortest path from origin point to destination point is of vital importance in different cases. In a network, the length of arcs could show the length of the path, time of the path, or any other parameter. A fuzzy shortest path has a variety of applications. Now suppose that there are arcs with no specified length, or with specified length that vary depending on other parameters such as traffic, accidents etc. Moreover, on certain occasions such as smuggling, security forces may doubt the weight of arcs. In such cases, the use of fuzzy shortest path would not be efficient. The Intuitionistic fuzzy set theory can be considered as a generalization of fuzzy set theory in which non-membership function is used in addition to membership function, independently. Note that in fuzzy theory, no difference is considered between presence of data or reasons in favor or against any given subject. In other words, if membership function of an element be half from the fuzzy set, we cannot infer that information was little or that negative and positive reasons were provided with the same amount. Whereas the Intuitionistic fuzzy set and logic is capable of overcoming a number of the limitations of the fuzzy algorithm theory such as supporting doubts and uncertainty. On the other hand, due to the fact that one of the present issues in the graph is finding the shortest path in terms of uncertainty and lack of adequate information of distances. In this paper, the shortest path of Dijkstra algorithm is expanded for the graph with Intuitionistic fuzzy arcs having incomplete data. In this article, two problems with corresponding solutions are presented. The first challenge is about combining the arcs solved by using triangular Intuitionistic fuzzy numbers. The second problem concerns the method of comparing the arcs. To compare the arcs, there are numerous ways including utilizing centroid, maximum and minimum sets, integral values etc. Finally, integral values method was implemented. The reason for using this method is capability to differ between state of decision-maker like optimism and pessimism. So one can change equal inputs accordance to different condition to give different outputs. In this regards, we provide a numerical example of a road network. This network includes 25 nodes and 46 arcs. It is assumed that the value of arcs is triangular Intuitionistic fuzzy numbers as noted above. Then, the algorithm was tested on the network and was compared with the conventional fuzzy method. Finally, the result of algorithm has been compared with the figures and tables and presented difference of the fuzzy and intuitionistic fuzzy paths. It should also be noted that in the case of information lack and algebraic uncertainties abound, Intuitionistic fuzzy logic will be useful, bearing more appropriate results compared to cases done with fuzzy logic. That is because the use of this algorithm allows us to analyse the possible routes pessimistically, cautiously, optimistically and moderately. Hence, information and lack of information as well as doubts and uncertainty will also be taken into account. As a result, the use of this algorithm provides results that are more adaptable to the given condition to be implemented by the decision maker.
    Keywords: intuitionistic fuzzy graph, shortest path problem, Dijkstra algorithm, Intuitionistic fuzzy number, Uncertainty
  • Y. Jouybari Moghaddam *, M. Akhoondzadeh, M. R. Saradjian Pages 215-226
    LST and LSE are two significant parameters in climatic, hydrologic, ecological, biogeochemical, and related studies. LST is an important factor in global change studies, in estimating radiation budgets in heat balance studies and as a control index for climate models. Emissivity, is an indicator of land-cover type and resources, and also a necessary element in the calculation of LST from remotely sensed data. The main purpose of this paper is to present an operational algorithm to retrieve the Land Surface Temperature (LST) and Land Surface Emissivity (LSE) from Landsat-8 satellite images. The proposed algorithm is Split Window (SW) with band 10 (10.6 – 11.19 μm) and band 11 (11.50 – 12.51 μm) of Landsat-8 in thermal infrared range. Also for LSE mapping, the Normalized Difference Vegetation Index (NDVI) method has been suggested. This study contains two main steps: first, emissivity values of bands 10 and 11 are calculated and NDVI threshold values have been determined to separate the bare soil, fully vegetated and mixed areas from each other. Then, by using a regression relation, the values of the emissivity of the bare soil samples and mixed area have been derived. A constant value of emissivity is also used for the fully vegetated area. For a regression relation and a constant value in this study, reflectance of Landsat-8 bands has been simulated based on using two different spectral library data and relative spectral response function of Landsat-8 thermal wavelengths. ASTER Spectral Library (ASL, http://speclib.jpl.nasa.gov) and Vegetation Spectral Library (VSL), which is published by system ecology laboratory at the University of Texas at EL Paso in cooperation with the colleagues in University of Alberta (http://spectrallibrary.utep.edu/SL_browseData), were used to create simulated dataset. For validation of this step according to the lack of accurate methods for retrieving LSE from Landsat-8 imagery, the method can’t be validated with real data. Therefore, the test simulated data, which are selected randomly from simulated data, were used for validating the method. In the second step, three simulated datasets have been used. One of them for obtaining the SW coefficients and others for validating the proposed SW algorithms. The simulated datasets should include brightness temperatures, surface temperatures, emissivity and atmospheric parameters (atmospheric transmission, upwelling and downwelling radiance) for the TIRS bands. For this purpose, for each Landsat-8 TIRS band (i.e.: band10 and band11) brightness temperatures are obtained from the RTE by inversion of the Planck’s law. Surface temperatures were chosen based on the temperature of the first layer of the atmospheric profiles (T0) as T0 − 5°K, T0, T0 + 5°K, T0 + 10°K, and T0 + 20°K. The emissivity was extracted from spectral library and the atmospheric parameters have been simulated using the MODTRAN for the standard atmospheric profiles of MODTRAN (including: tropical (TRO), mid-latitude summer (MLS), mid-latitude winter (MLW), sub-arctic summer (SAS), U.S standard (USS), sub-arctic winter (SAW)). The SW algorithm coefficients for Landsat-8 were calibrated. SW algorithm coefficients were retrieved by using the least square approach based on the simulated data. Finally, this SW algorithm was tested with three datasets: simulated data, real data and satellite data. Results show that the RMSE value retrieved from the SW algorithm is equal to 1.21°k, 1.76°k and 1.03°k respectively for the three datasets. Therefore the results indicate that the proposed SW algorithm can be a suitable and robust method to retrieve the LST map from Landsat-8 satellite data.
    Keywords: LSE, LST, split, window, MODTRAN, Landsat, 8
  • A. A. Heidari, R. A. Abaspour* Pages 227-240
    Unmanned aerial systems (UAS) are one of the latest technologies utilized in the hazard management and remote sensing. Nowadays, tendency in the development of UAS is toward autonomous navigation or hybrid tasks. In this context, development of comprehensive, efficient methodologies for path planning, control and navigation of UAS can be regarded as one of the fundamental steps for the development of autonomous systems. Up to now, different planning algorithms have been proposed in the specialized literature in order to enrich the framework of autonomous navigation of unmanned aerial systems. However, few efforts have been devoted to design new chaotic path planners for determining the optimal trajectories of these aerial systems in urban areas. An effective path planning technique can attain mission aims with respect to various restrictions of the UAS and less computational time.Chaos theory is one of the most studied theories with different applications in engineering and technology. Most of the natural processes demonstrate chaotic behavior such as black hole and clouds. Past researchers showed that if an evolutionary algorithm be hybridized with chaos, its performance will have improved, considerably. However, most of the evolutionary algorithms are inspired from nature, but all of their steps are random based motions. But nature is not either completely random based or chaotic. Hence, the combination of these theories should be more realistic. With this regard, evolution and chaos are related to each other narrowly in most of the complex natural systems. It is evidenced that some of the chaotic signals can alleviate the premature convergence problem of the evolutionary algorithms in tackling optimization problems.In this article, first, UAS path planning is modeled as a 3D constrained optimization problem. In this modeling, the aim is the optimization of path, fuel and safety with respect to different restrictions. After scheming and suggesting of general planning framework, UAS path planning problem is investigated by comparative study with regard to the studied scenario. For this aim, evolutionary planner is implemented in order to minimize the flight height, path length and energy consumption considering different restrictions such as safe altitude, turning angle, climbing slope, gliding slope, no fly zones and mission map limits. Then, a comprehensive model is employed to describe route-planning task, and then, based on the hybridization of chaos theory with evolutionary computing, four new evolutionary optimizers are developed. Hence, this paper developed four chaotic optimizers including particle swarm optimization, differential evolution, imperialist competitive algorithm and artificial bee colony technique based on 14 chaotic signals.In the rest of this paper, analyses, and extensive performance evaluation of the designed trajectory-planning approaches are performed according to the success rate results, precision and quality of the results, CPU running times, and convergence speed. The results show that the proposed framework can be utilized in represented scenario as an effective path planner. Proposed strategies are capable to compute the optimal paths more efficiently in comparison with the standard algorithms. From the results it is known that the chaotic differential evolution with logistic map can outperform the other compared algorithms.
    Keywords: Path Planning, Unmanned Aerial Systems, Chaos Theory, Evolutionary Computing, Differential Evolution, Imperialist Competitive Algorithm, Particle Swarm Optimization, Artificial Bee Colony Algorithm
  • M. Saber *, F. Samadzadegan, H. Zahmatkesh Pages 241-256
    Rapidly discovering, sharing, integrating and applying geospatial information are key issues in the domain of emergency response and disaster management. Due to the distributed nature of data and processing resources in disaster management, utilizing a Service Oriented Architecture (SOA) to take advantages of workflow of services provides an efficient, flexible and reliable implementation to encounter different hazardous situation. The implementation specification of the Web Processing Service (WPS) has guided geospatial data processing in SOA to become a widely accepted solution for processing remotely sensed data on the web. This standard is a generic interface without any restriction on supporting any specific process. It is possible to integrate different geoprocessing services in an individual WPS service and expose it as a single web service. This paper presents an architecture design based on OGC web services for automated workflow of acquisition, processing remotely sensed data, detecting fire and sending notifications to the authorities. A basic architecture and its building blocks are represented using web-based processing of remote sensing imageries utilizing MODIS data. As a framework for this application, we consider a generic architecture, which consists of several components. These components are divided into layers according to the types of functionality they provide. A core module is provided to manage the interactions between different layers and components. To achieve the interoperability issue, OGC standard interfaces are utilized for storing, processing and representing remote-sensing data. A workflow of distributed processes are used for hot pixel detection using MODIS data to implement the feasibility of the proposed architecture. A composition of WPS processes, in a centralized opaque pattern, is proposed as a WPS service to extract fire events. The workflow includes several processes such as pre-processing of data, radiance number calculation, brightness temperature process, fire event rules computations. The paper highlights the role of WPS as a middleware interface in the domain of geospatial web service technology that can be used to invoke a large variety of geoprocessing operations and chaining of other web services as an engine of composition. The usage of available data and processing resources on a flexible infrastructure as a composite service is one of the benefits of service oriented architecture that provides a higher level of functionalities and applications. The applicability of proposed architecture by a real world fire event detection and notification use case is evaluated. For the implementation of described system, open source web service software and java technology have been used. OGC standard interfaces of data access services, Web Coverage Service (WCS) and Web Feature Service (WFS), have been used to store and retrieve required data in a standard way. To notify the realized events of fire hazards to the authorities the standard implementation specification of OGC, Web Notification Service (WNS), was used to provide alerts in different protocols of communication. A GeoPortal client was developed to manage data, metadata, processes, and authorities alongside the mapping of results of fire event detection processes on satellite imageries. Investigating feasibility and benefits of proposed framework exposes that this framework could be extended and reuse the components of this architecture for wide area of geospatial applications specially disaster management and environmental monitoring.
    Keywords: Web Service Chaining, Service Composition, Web Processing Service, Disaster Management, Fire Detection
  • K. Parvazi *, J. Asgari, A. R. Amirisimkooei, B. Tajfirooz Pages 257-269
    In traditional hydrographic surveys, chart datum is usually determined using spectral analysis of coastal tide gauge observations based on the lowest water level. Due to the variation of tidal amplitude and phase components in different locations, such chart datum is only valid in coastal areas around the tide gauge stations; it is then hardly accurate when a few tens of kilometers away from the tide gauge stations in the off-shore areas. This study models the separations between the elliptical reference WGS84 and the chart datum using the data collected by the satellites Topex/Poseidon and Jason-1 for the periods of 1992-2002 and 2002-2008 in Persian Gulf and the coastal tide gauge data of the Oman Sea. The major advantages of the technique used in this study are highlighted as follows. The satellite altimetry observations on the shores and also in the shallow water is not of good accuracy and precision. An appropriate solution to this problem is to use coastal tide gauge observations near the time series generated from the satellite observations. On the other hand, chart datum determination based on the coastal tide gauge observations is suitable only for the areas close to the coastal tide gauge stations. However, due to the amplitude and phase variations of the tidal components in different parts of the sea, the accuracy of such a chart datum is not appropriate for the areas that are far away from the tide gauge stations. In this study, the satellite altimetry observations are combined with the data obtained from the coastal tide gauge stations. Due to the existence of point-wise time series in the study area and also creation of the “quasi tide gauge” points using the satellite altimetry observations, both of the problems mentioned above (i.e. weakness of the satellite altimetry observations and the chart datum determination based on the use of the coastal tide gauge observations only) can be solved. This will then lead to higher accuracy of the chart datum determination in the entire area. To achieve higher accuracy, observations of the tide gauge stations are also used. It is because the distances between the tide gauge stations and the time series obtained from the satellite observations are considerably large (sometimes more than 20 km). Therefore, this combination will lead to the establishment of a regular and continuous network of tide gauge observations in the entire area having acceptable accuracy. To determine this model, sea level variations due to the tide, polar motion variations, plates tectonic movements and all the factors affecting the potential tide with significant components (M2, S2, K1, O1) and even less important components such as signals with the period of 14 days, monthly, semi-annual, annual, 8.5 year and 18.6 year are considered in the case study area. It is also highlighted that because the satellite altimetry observations are only available on periods of 9.915 days, the high-frequency tidal signals cannot be detected using these data. Therefore, these frequencies are also included into the functional part of the model. Based on the above strategy, the separation between the elliptical reference and the chart datum has been computed by comparing the tide gauge data and the satellite altimetry data for the period of 2002-2005.
    Keywords: topex, posiedon, jason, 1, satellite altimetry, coastal tide gauge, chart datum, persian gulf, oman sea
  • A. A. Safari, S. Kalantarioun *, H. Amini Pages 271-285
    With the advent of the satellite altimetry in 1973, new scientific applications become possible in oceanography, marine sciences and Earth-related studies, and it was made possible to monitor the sea level with high accuracy and tidal modeling in a global scale. Advances in the sensors technology and different satellite altimetry missions in the recent years led to a great evolution in geodesy and the gravity field modeling studies. The oceanic tide is a periodic phenomenon of rise and fallen of the sea level that has emerged from the combination of waves with different periods. It is governed by the gravitational action of the solar system bodies essentially the moon and the sun, it translates by a transport of water masses. Tide phenomenon is of particular significance among researchers in different scientific societies such as Geodesy, Geophysics, and Oceanography. Since tide is one of the most effective factors on instantaneous sea level fluctuations, it is necessary to know the status of tidal in all offshore projects. So, we can have wider and more optimal exploitation of marine resources with known of the main components of the tide, and finally, the tide phenomenon and sea levels could be predicted with the exact knowledge of the tidal frequencies. Several methods, including Least squares method, Fourier analysis, and statistical methods, have been developed to determine the tidal frequencies. Fourier analysis is a convenient and efficient mathematical tool for modeling the behavior of a periodic phenomenon. In this study, main constituent frequencies of time-series and finally, tidal frequencies in Caspian Sea are determined using the Fourier analysis method relying on the concept of stationary time-series. In this way, first, for a closer look at the data and better visibility of other fluctuations in time-series, the trend component is removed from the data using the Fourier seriese. Next, the frequencies that make up the time-series were identified by the Fourier analysis and least squares method, and as mentioned, the concept of stationary time-series is used to find the main components of the tide in this study. Data from the altimetry satellite Jason-2 from 2008 to early 2014 is analyzed to form the instantaneous sea level time-series in 7 points in Caspian Sea that indicates large instantaneous sea level fluctuations. For time-series, the suitable model for tide modeling can be determined by the following equ ation: where is amplitude, is frequency, is related phase, and is the number of frequencies contained in the model. A discrete set of frequencies can be achieved by in a time-series with equidistant data, where is the time of the first observation and is related to the last. Nyquist Frequency is calculated as. So, the above equation can be written as: So, the amplitudes related to each frequency can be calculated using a least squares adjustment and much more effective frequencies contained in the signal can be identified based on these amplitudes. This analysis uses the concept of Aliased Frequency to calculate the main tidal components in 7 points in Caspian Sea, including: SSA، SA، S2، M2، MF، MM، S4 and M6 component. Finally, spectral analysis is used to study the effect of Volga River on the Caspian Sea level changes.
    Keywords: Least Squares method, Fourier analysis, satellite altimetry, tidal frequencies, Nyquist Frequency, Aliased Frequency
  • Mahin Jafari *, Masoud Mashhadi, Hossainali Pages 288-297
    Nowadays, navigation is an unavoidable fact in military and civil aerial transportations. The Global Positioning System (GPS) is commonly used for computing the orientation or attitude of a moving platform. The relative positions of the GPS antennas are computed using the GPS code and/or phase measurements. To achieve a precise attitude determination, Carrier phase observations of GPS requiring the phase ambiguity resolution has been utilized. The more accurate the coordinates, the more accurate the attitude parameters will be. Attitude parameters are derived from the computed coordinates. Here, attitude parameters are computed by carrier beat phases of four single frequency GPS receivers. The problem of GPS attitude determination is an ill-posed problem if only GPS carrier phases are used. This is because the number of unknown parameters is always larger than the number of observations when the relative positions of the GPS antennas are computed. In this research, carrier beat phases of four single frequency GPS receivers are used to determine the orientation of a platform whose attitude parameters are already known. Observations are made for 10 minutes. In this research, two sets of constraints are used to fix the rank deficiency of the problem. The first consists of the Real Time Kinematic (RTK) coordinates of the GPS antennas. Fixed antennas to the moving body help add five additional constraints (second set) to the problem. These constraints increase the redundancy and make the least-squares estimation of the attitude parameters possible. Since the application of regularization methods contaminates the solution with regularization errors, application of the proposed constraints is superior to regularization techniques. This is practically shown through the comparison of the computed attitude parameters, a similar set of results which is derived using the Moore-Penrose algorithm as a regularization technique, and the reference values of these parameters which are provided through an independent research. According to the obtained results, 59 seconds is required to fix the ambiguity parameters. In other words, to reduces the accuracy of the float ambiguities to less than 1.0 cycle, their initial estimate should be updated by the next 58 measurement epochs. Then the ambiguity parameters are rounded to their nearest integer number. On average, the least squares estimate of the yaw parameter is 51.7000 with the standard deviation of ±0.01710. The average estimate of pitch is 39.1680 with the standard deviation of ±0.01540. Finally, on average, the least squares estimate of the roll is 26.1530 with the standard deviation of ±0.01370. Computed attitudes have been compared to their known values. By the new definition of the body frame given in this study, least-squares estimation of the attitude parameters would be possible even if only three GPS antennas are used. Computing the transformation parameters between the new and conventional body frames, attitude angles can be transformed to any conventional frame. The proposed method of this research is superior to the others. The computed biases represent the integrity of determination and corroborate usage of inner constraints and weighted parameters to resolve the rank deficiency of the problem.
    Keywords: GPS Attitude Determination, RTK Network, Inner Constraints