فهرست مطالب

علوم و فنون نقشه برداری - سال هفتم شماره 3 (پیاپی 27، زمستان 1396)

نشریه علوم و فنون نقشه برداری
سال هفتم شماره 3 (پیاپی 27، زمستان 1396)

  • تاریخ انتشار: 1396/12/19
  • تعداد عناوین: 16
|
  • علمی - پژوهشی
  • امین صداقت*، نازیلا محمدی صفحات 1-15
    تناظریابی یکی از فرآیندهای اساسی و مهم در فتوگرامتری است. در این مقاله یک روش دقیق و پایدار برای تناظریابی اتوماتیک تصاویری که دارای اختلافات هندسی زیاد ناشی از تغییر نقطه ی دید تصویربرداری هستند، ارائه شده است. روش پیشنهادی از سه مرحله اصلی تشکیل شده است. در مرحله اول یک مجموعه از عوارض پایدار تصویر با بهره گیری از الگوریتم Hessian-Affine و با استفاده از دو قید توزیع مکانی و مقیاس استخراج می شوند.
    در مرحله دوم برای هر عارضه ی مستخرج، یک توصیفگر بسیار متمایز با استفاده از الگوریتم MROGH (Multisupport Region Order-Based Gradient Histogram) بر مبنای رتبه بندی درجات خاکستری و ادغام هیستوگرام های تو در تو ایجاد می شود. در نهایت در مرحله سوم فرآیند مطابقت میان عوارض با استفاده از روش نزدیکترین نسبت همسایگی دو جانبه انجام شده و تناظرهای اشتباه احتمالی با کنترل سازگاری نقاط با استفاده از قید هندسی اپی پولار و در یک روند تکراری شناسایی و حذف می شوند. روش پیشنهادی بر روی 6 جفت تصویر برد کوتاه با اختلافات هندسی زیاد پیاده سازی شده و نتایج با سه الگوریتم MSER-SIFT، UR-SIFT و A-SIFT مقایسه شده است. نتایج آزمایشات برای سه معیار تعداد تناظرهای درست، Recall و دقت مکانی، بیانگر قابلیت بالای روش پیشنهادی برای تناظریابی دقیق و پایدار در تصاویر با اختلافات هندسی زیاد است. به طور متوسط میزان معیارهای تعداد تناظرهای درست، Recall و دقت مکانی برای روش پیشنهادی به ترتیب برابر 456 عدد، 37% و 0.6 پیکسل است.
    کلیدواژگان: تناظریابی، عوارض Hessian، Affine، توصیفگر MROGH، ماتریس کواریانس، تصاویر برد کوتاه
  • فرزاد جواهری*، محمد سعادت سرشت صفحات 17-28
    تاریخچه واحد اندازه گیری اینرسی (IMU) به سال 1930 میلادی برمی گردد. در آن زمان این فناوری به دلیل محدودیت های جدی آن در اندازه، هزینه و مصرف انرژی، قابل بکارگیری در دستگاه های کوچک و استفاده عموم نبوده است. پیشرفت های اخیر سنجنده های واحد اندازه گیری اینرسی از نوع میکروالکترومکانیکی (MEMS) که بسیار سبک تر، کوچک تر و ارزان تر از دیگر انواع سیستم های اینرسی می باشند. اما با این وجود این سیستم ها نسبت به سیستم های اینرسی دیگر دقت پایین تری دارند. بنابراین برای بهبود در عملکرد و دقت مشاهدات، سیستم های اینرسی نیاز به کالیبراسیون دارند. در این مقاله در ابتدا به معرفی انواع سیستم های اینرسیایی و تمرکز بیشتر بر روی سیستم های مبتنی بر میکروالکترومکانیکی پرداخته شده است و مدل ریاضی مورد استفاده که در آن خطاهای بایاس، فاکتور مقیاس و عدم تعامد محور ها قرارگرفته است. در ادامه راهکارهای برای کالیبره سازی سیستم های اینرسیایی بصورت استاتیک ارائه شده است. که این روش ها به ترتیب شش موقعیت استاتیک (SPS)، چند موقعیتی (MP) و کمترین مربعات بازگشتی (RLS) می باشند که منجر به تعیین پارامترهای خطای واحد اندازه گیری اینرسیایی می شوند. در این پژوهش از نرم افزار OARS استفاده شده است، یک سیستم جمع آوری داده توسعه یافته بر روی سیستم عامل آندروید می باشد. نتایج روش های پیشنهادی نشان دادند که اولا در مدل ریاضی با 12 پارامتر وابستگی بالای بین پارامتر ها نسبت به مدل ریاضی با 9 پارامتر وجود دارد. ثانیا اگر از مشاهدات خام با یک وضعیت خاص ابتدا میانگین گرفته شود و این مقادیر وارد معادلات گردد نتایج بهتری دارد نسبت به وارد کردن مشاهدات خام یا مشاهداتی که به روش تبدیل موجک گسسته نویزشان حذف شده است. مقادیر خطا واحد اندازه گیری در روش چند موقعیتی در این سه حالت به ترتیب بدست 0.082345، 0.083140 و 0.082952 متر بر مجذور ثانیه آمده است. ثالثا نتایج مقدار خطا واحد اندازه گیری در سه روش پیشنهادی به ترتیب 0.146245، 0.161520 و 0.082345 متر بر مجذور ثانیه و علت عدم نیاز به جمع آوری داده در حالت خاص (تراز دقیق سیستم اینرسی) برای تعیین پارامتر های کالیبراسیون نشان می دهد که روش چند موقعیتی از دو روش دیگر بهتر عمل کرده است.
    کلیدواژگان: کالیبراسیون، سیستم ناوبری اینرشیال، شتاب سنج، ژیروسکوپ، میکروالکترومکانیکی، موجک، آندروید
  • علی عزیزی*، اعظم هادیلو، محمد علی شریفی صفحات 29-38
    تعیین بردارهای جابجایی ناشی از لغزش زمین، مرحله مقدماتی و اساسی در تهیه نقشه های ریسک پذیری رانش را تشکیل میدهد. هدف از این مقاله، اعتبار سنجی روشی مبتنی بر تبدیل قطاعی (localized) در تعیین بردارهای جابجایی دو بعدی در مناطق متاثر از رانش زمین است. برای این منظور، از تصاویر دید عقبنگر IRS P5 در دو اپوک زمانی با فاصله زمانی یکسال در منطقه ای در استان اردبیل، استفاده شده است. هدف اصلی این مقاله، استفاده از مشاهدات زمینی موجود در منطقه تحت رانش به منظور تحلیل و ارزیابی دقیقتر صحت مقادیر محاسبه شده در میزان جابجایی منطقه زمین رانش با روش قطاعی می باشد. روش تبدیل قطاعی می تواند در مستند سازی و تهیه نقشه های متوسط مقیاس در سطح کشور برای مناطقی که دارای مقادیر قابل توجه رانش هستند و نیز پایش مستمر این مناطق استفاده شود و با توجه به اینکه مناطق تحت رانش معمولا قطاع کوچکی از کل تصویر ماهواره ای را تشکیل میدهند، روش قطاعی، همانطور که در این تحقیق نشان داده شده است، میتواند کارآیی قابل قبولی داشته باشد. به منظور نشان دادن کارآیی و دقت این روش جهت مستندسازی و پایش رانش زمین، از اندازه گیری های زمینی انجام شده بوسیله GPS توسط شرکت مهندسین مشاور ایستاسنج دقیق، جهت تحلیل کلی روش قطاعی، استفاده شد. جهت انجام این مقایسه، نقاطی که در خارج منطقه زمین رانش دارای مشاهدات زمینی بودند، در تصاویر ماهواره ای شناسایی گردیدند و با تصحیح خطای شیفت ضرائب RPC به کمک این نقاط، هم مرجع سازی مکانی بین نقاط اندازه گیری شده در تصویر و مشاهدات زمینی صورت گرفت. به علت عدم همزمانی مشاهدات زمینی و زمان های تصویربردای ماهواره ای، هم مرجع سازی زمانی برای این نقاط نیز ضروری بود. هم مرجع سازی زمانی با یک انترپوله خطی انجام شد. نحوه مقایسه بردارهای جابجایی استخراج شده از تصاویر و مشاهدات زمینی و دقت نهایی بدست آمده در بردارهای جابجایی، در این مقاله گزارش شده است.
    کلیدواژگان: رانش و لغزش زمین، تبدیل قطاعی، ارزیابی دقت، هم مرجع سازی مکانی و زمانی، تصاویر ماهواره ای آرایه خطی با دید عقبنگر
  • جمشید مالکی، فرشاد حکیم پور *، زهره معصومی صفحات 39-55
    بررسی تناسب کاربری های موجود و اولویت بندی کاربری ها برای پلاک های شهری با توجه به مشخصات کالبدی آن ها در ارتباط با سایر کاربری های مجاور، منجر به مدیریت بهینه در محیط شهری خواهد شد. ازاین رو، هدف اصلی این تحقیق، ارائه مدلی برای ارزیابی و اولویت بندی کاربری اراضی شهری بر اساس معیارهای تعریف شده است. در این مدل با توجه به تقریبی بودن نظر کارشناسان در تعیین مقادیر معیارهای ارزیابی شهری، برای برآورد کلی مقادیر این معیارها از محاسبات فازی استفاده گردیده است. اولویت بندی کاربری ها برای هر یک از پلاک های شهری نیز با توجه به فازی بودن مقادیر معیارها، با استفاده از روش TOPSIS-فازی صورت گرفته است تا اولویت های تخصیص کاربری برای هر یک از پلاک ها تعیین گردد. درنهایت بر اساس اولویت بندی های انجام گرفته کاربری های مستعد تغییر می توانند شناسایی گردند. توسط مدل پیشنهادی، اولویت کاربری های موجود در شهر با توجه به خصوصیات فیزیکی و کالبدی زمین برای هر کاربری مشخص شده و تصمیم گیرنده در مراحل تصمیم گیری برای تغییر کاربری ها می تواند اولویت کاربری مناسب را برای قطعات مختلف ملاحظه نماید. این مدل با استفاده از داده های مکانی ناحیه یک منطقه 7 تهران مورد پیاده سازی و ارزیابی قرار گرفت. رتبه بندی کاربری های شهری برای پلاک های موجود در منطقه ی موردمطالعه نشان داد که 77.2 درصد کاربری های موجود دارای اولویت اول برای پلاک های خود هستند. درنتیجه 22.8 درصد پلاک های شهری در منطقه موردمطالعه، کاربری با اولویت اول را به خود اختصاص نداده اند و کاربری این پلاک ها، می توانند مستعد تغییر باشند. نتایج به دست آمده علاوه بر پلاک های شهری با کاربری مستعد تغییر، اولویت های تخصیص کاربری برای هر یک از این پلاک ها را نیز مشخص نموده است.
    کلیدواژگان: اولویت بندی کاربری های شهری، برنامه ریزی کاربری های شهری، تصمیم گیری چندمعیاره، محاسبات فازی، Fuzzy TOPSIS، ناحیه یک منطقه هفت تهران
  • علی محمدی نیا *، عباس علیمحمدی، زینب قائمی صفحات 57-73
    بیش از 200 نوع بیماری مشترک بین دام و انسان در جهان وجود دارند که لپتوسپیروز یکی از مهمترین آنها به شمار می رود. هر ساله با شروع فصل شالیکاری در شمال کشور، این بیماری شیوع پیدا کرده و در مواردی منجر به مرگ و میر می شود. در مقایسه با سایر استانها در چند سال اخیر، استان گیلان بیشترین میزان گزارش بیماری لپتوسپیروز را به خود اختصاص داده است و از این جهت مطالعه و مدلسازی این بیماری در استان فوق از الویت زیادی برخوردار است. در این تحقیق کارایی کرنل های ثابت و انطباقی در روش رگرسیون وزندار جغرافیایی (GWR) جهت مدلسازی بیماری لپتوسپیروز و تاثیر 7 عامل محیطی بر آن در سال های 2009 تا 2011 در سطح دهستان های استان گیلان مورد بررسی قرار گرفته است. از دو معیار ضریب تبیین و خطای میانگین مربعات نیز برای ارزیابی نتایچ استفاده شده است. نتایج به دست آمده حاکی از آن است که کرنل انطباقی نسبت به کرنل ثابت و نیز وزندهی زوج مربعی در مقایسه با وزندهی گوسین به ترتیب عملکرد بهتری دارند. از نظر معیارهای انتخاب پهنای باند به ترتیب AIC، CV و BICنقش مفیدتری دارند. از نظر متغیرهای محیطی نیز، پارامترهای متوسط دما، رطوبت و تبخیر بیشترین رابطه مثبت و ارتفاع و شیب رابطه عکس با بیماری لپتوسپیروز نشان می دهند. نقشه های تهیه شده از توزیع بیماری نشان می دهند که مناطق مرکزی استان گیلان بیشتر از سایر مناطق در معرض ابتلا به این بیماری بوده و مدیریت و کنترل این بیماری در این مناطق از الویت بیشتری برخوردار است.
    کلیدواژگان: بیماری واگیر، لپتوسپیروز، سیستم اطلاعات مکانی، تحلیل مکانی، رگرسیون وزندار جغرافیایی
  • سارا خانبانی*، علی محمدزاده، میلاد جانعلی پور صفحات 75-88
    مبحث شناسایی تغییرات از تصاویر سنجش ازدوری با توجه به لزوم کاربرد آن در حیطه های مختلف ازجمله مدیریت شهری و غیرشهری و پایش رشد نواحی از اهمیت بالایی در بین پژوهشگران این عرصه برخوردار است. روش ها و تکنیک های متفاوتی به منظور آشکارسازی تغییرات ارائه شده است. یکی از دسته بندی های رایج درزمینه ی تکنیک های شناسایی تغییرات، تقسیم بندی به دو روش نظارت شده و نظارت نشده می باشد. روش های نظارت نشده بر اساس اطلاعات تصویری بوده و از کمترین اطلاعات جانبی برای تصمیم گیری در مورد پیکسل ها استفاده می کنند. در این مقاله روش شناسایی تغییرات خودکار جدیدی از تصاویر سنجش ازدوری بر اساس الگوریتم خوشه بندی K-Means بهبودیافته با الگوریتم بهینه سازی ازدحام ذرات پیشنهادشده است. هدف از روش ارائه شده استخراج خودکار مناطق تغییرات میان دو تصویر سنجش ازدوری دو زمانه می باشد. با توجه به اینکه در اغلب مناطق طیف وسیعی از تغییرات وجود دارد، روش ارائه شده قادر به شناسایی تغییرات محلی و درعین حال حفظ اطلاعات کلی تصویر خواهد بود. روش پیشنهادی بر روی دو پایگاه داده از مناطق آلاسکا و دریاچه ارومیه پیاده سازی شده و افزایش دقت شناسایی تغییرات 8 تا 13 درصدی را نسبت به روش های Otsu،K-Means، K-Medoids و FCM نشان می دهد.
    کلیدواژگان: شناسایی تغییرات نظارت نشده، خوشه بندی PSO-K-Means، شناسایی تغییرات محلی
  • محمد کریمی فیروزجایی، مجید کیاورز مقدم *، نعیم میجانی، سید کاظم علوی پناه صفحات 89-107
    پراکندگی شهری به عنوان یک نوع خاص از رشد شهری در نظر گرفته می شود که اثرات منفی بسیاری را به همراه دارد. تجزیه و تحلیل رشد شهری با استفاده از داده های مکانی و توصیفی به عنوان یکی از نیازهای اساسی مطالعات جغرافیایی شهری و برنامه ریزی های آینده محسوب می شود. فن آوری سنجش از دور به عنوان یک ابزار موثر برای تشخیص و مدل سازی رشد شهری کاربرد دارد. هدف از این پژوهش، بررسی دقیق میزان و نحوه ی رشد شهری و تجزیه و تحلیل عوامل موثر بر چگونگی رشد شهری برای شهر تهران می باشد. در این مطالعه، از شش تصاویر ماهواره ای لندست مربوط به بازه زمانی 1395-1351 استفاده شده است. تصاویر ذکر شده با استفاده از الگوریتم بیشترین شباهت طبقه بندی شدند و نقشه اراضی ساخته شده مربوط به سال 1403 با استفاده از مدل سلول های خودکار-مارکوف پیش بینی شده است. درنهایت، پارامترهای آماری مربوط به رشد شهری کلان شهر تهران در دوره های زمانی 44 سال گذشته و 8 سال آینده برای 8 جهت جغرافیایی مختلف بررسی شده است. آزمون کای اسکور پیرسون و مدل آنتروپی شانون برای محاسبه درجه آزادی و پراکندگی و تجزیه و تحلیل رشد شهری استفاده شده است. علاوه بر این مدل ها، شاخص درجه ی خوب بودن نیز برای تجزیه و تحلیل رشد شهری ارائه شده است و تاثیر پارامترهای محیطی بر نحوه ی رشد شهری بررسی شده است. برای پارامترهای درجه آزادی کلی، آنتروپی شانون و درجه ی خوب بودن به ترتیب مقادیر 2/3104، 71/4 و 23/8- بدست آمده است. نتایج نشان می دهد که شهر تهران از درجه آزادی بالا، پراکندگی زیاد و درجه خوب بودن منفی در رشد شهری برخوردار است. پارامترهای شرایط اقلیمی، دمای سطح منطقه و نحوه توزیع راه های ارتباطی تاثیر مستقیم بر میزان و نحوه رشد شهری دارد. نتایج این تحقیق پایه و اساس شناخت عمیق رشد شهر تهران و بهینه سازی برنامه ریزی شهری برای آینده را فراهم کرده است.
    کلیدواژگان: درجه آزادی، درجه پراکندگی، درجه خوب بودن رشد شهری، سنجش از دور، تهران
  • ناصر عبدی *، علیرضا آزموده اردلان، روح الله کریمی صفحات 109-125
    از مشاهدات غنی و متراکم ایستگاه های دائمی GPS که اغلب محدود به خشکی ها هستند، می توان برای مطالعه یونسفر و تولید نقشه های یونسفر استفاده نمود. این نقشه ها نمایشگر مقادیر محتوای مجموع الکترونی در راستای قائم (VTEC) بوده و کاربرد خاص آنها در موقعیت یابی دقیق با استفاده از مشاهدات گیرنده های تک فرکانس است. نقشه های جهانی یونسفر (GIM) که توسط مراکز مختلف IGS تولید می شوند، همگی نمایشگر مقادیر VTEC به ازای هر دو ساعت، با رزولوشن مکانی °5/2 در راستای عرض جغرافیایی و °5 در راستای طول جغرافیایی و یا به صورت تابعی از ضرایب هارمونیک کروی تا درجه و مرتبه 15 و با رزولوشن زمانی دو ساعت هستند. کمبود ایستگاه های دائمی GPS در دریاها منجر به افت صحت و دقت این مدلها در آن مناطق شده و استفاده از مشاهدات دو فرکانس ارتفاع سنجی ماهواره ای به همراه مشاهدات GPS می تواند به عنوان راهکاری برای بهبود این مدلها در این مناطق محسوب گردد. در این مقاله به منظور تولید نقشه محلی یونسفر ایران (LIM)، مشاهدات 21 ایستگاه دائمی GPS در روز 107 از سال 2014 (متناظر با بیشینه فعالیت خورشیدی) و توابع پایه بی-اسپلاین دو بعدی به عنوان توابع پایه مدلسازی استفاده شده اند. مقادیر مختلفی برای انتخاب سطح بهینه توابع پایه بی-اسپلاین در دو بعد مورد آزمون قرار گرفت و در نهایت، مدلسازی با سطح 1 و 2 به ترتیب در راستای طول جغرافیائی و عرض جغرافیائی انجام شد. نتایج بدست آمده، اختلافات عمده ای را نسبت به GIM نشان می دهند. در ادامه، مشاهدات GPS به همراه مشاهدات ارتفاع سنجی ماهواره ای مربوط به ماهواره Jason-2 در فرآیند مدلسازی محلی یونسفر در نظر گرفته شدند و برای وزن دهی نسبی بین مشاهدات دو دسته، از تکنیک برآورد مولفه های واریانس کمترین مربعات (LS-VCE) استفاده گردید. در این قسمت علاوه بر ضرایب مدل یونسفر محلی و بایاسهای کد تفاضلی (DCB) گیرنده ها، بایاس دیگری بین مشاهدات GPS و ارتفاع سنجی ماهواره ای نیز برآرود شده و با نتایج مرحله قبلی مقایسه شدند. نتایج مقایسه نشان می دهند که در صورت استفاده از مشاهدات ارتفاع سنجی ماهواره ای به همراه مشاهدات GPS، دقت مدلسازی در سطح دریاها بهبود خواهند یافت.
    کلیدواژگان: B-Spline، DCB، GIM، LIM، LS-VCE، VTEC
  • سعید حاجی آقاجانی، یزدان عامریان * صفحات 127-138
    تعیین موقعیت دقیق نقاط در تمام شرایط آب و هوایی همواره از مهمترین اهداف سیستم های ماهواره ای ناوبری جهانی (GNSS) بوده است. انکسار امواج ارسالی از ماهواره ها بدلیل عبور از لایه های مختلف جو به ویژه پایین ترین لایه آن که تروپوسفر نام دارد، زمینه ساز بروز یکی از مهمترین انواع خطاهای موجود در تعیین موقعیت می باشد. در این مقاله به مقایسه کارآیی داده های هواشناسی ERA-Interim و داده های رادیوسوند در افزایش دقت تعیین موقعیت مطلق نقاط با اعمال تصحیحات مربوط به اثرات این لایه بر مشاهدات GPS پرداخته شده است. بدین منظور با بکارگیری روش ردیابی اشعه سه بعدی و انتخاب دو ایستگاه بندرعباس و بیرجند و آماده سازی داده های مذکور در این مناطق، تصحیحات تروپوسفری با هر دو نوع داده هواشناسی فوق برای سه تاریخ متفاوت محاسبه گردید. ابتدا با استفاده از نرم افزار Bernese موقعیت دو ایستگاه بندرعباس و بیرجند یکبار با مجهول در نظر گرفتن تاخیر مربوط به لایه تروپوسفر و محاسبه آن و بار نیز با صرف نظر از آن تعیین گردید. در ادامه تصحیحات تروپوسفری بدست آمده از روش ردیابی اشعه با استفاده از مشاهدات رادیوسوند و داده های هواشناسی ERA-Interim بر فایل مشاهدات GPS اعمال گردید و تعیین موقعیت در این دو حالت نیز انجام گرفت. نتایج بدست آمده علاوه بر نشان دادن اهمیت خطای تروپوسفری در محاسبات تعیین موقعیت مطلق، بیانگر آن است که موقعیت بدست آمده با استفاده از تصحیحات رادیوسوند در ایستگاه بندرعباس 0.0162 متر دقیق تر از موقعیت بدست آمده با استفاده از تصحیحات داده های هواشناسی ERA-Interim می باشد. در حالی که نتایج دو نوع داده تفاوت چندانی در ایستگاه بیرجند ندارند. این موضوع را می توان به تغییرات کم بخار آب و سایر شاخص های جوی در راستاهای ارتفاعی و مسطحاتی در ایستگاه بیرجند در مقایسه با ایستگاه بندرعباس نسبت داد.
    کلیدواژگان: تاخیر تروپوسفری، تعیین موقعیت مطلق، داده های هواشناسی، رادیوسوند، ردیابی اشعه
  • محسن رضایی *، حسین عارفی، حیدر راستی ویس، مریم سجادیان صفحات 139-150
    امروزه ارائه مدل سه بعدی از عارضه های جهان واقعی بسیار مهم و پرکاربرد است و توجه محققان در شاخه های مختلف ازجمله نقشه برداری و سیستم های اطلاعات مکانی و علاقه مندان به بازسازی سه بعدی ساختمان را به خود جلب کرده است. ساختمان کلیدی ترین بخش اطلاعات در یک مدل سه بعدی شهر است، ازاین رو استخراج و مدلسازی ساختمان ها از داده های سنجش از دور گام مهمی برای ساخت مدل رقومی یک شهر محسوب می شود. در این مقاله، روشی جدید برای بازسازی ساختمان های مناطق شهری در مجاورت با پوشش گیاهی از ابر نقاط نامنظم لیدار ارائه می شود. این روش با بهره گیری از استراتژی داده مبنا شامل دو مرحله؛ استخراج نقاط ساختمانی و مدلسازی ساختمان است. در مرحله اول نقاط پوشش گیاهی اولیه با استفاده از پالس های بازگشتی لیدار و نقاط زمینی با استفاده از روشی بخش مبنا حذف می شوند. سپس نقاط سقف ساختمان با استفاده از تصویر سازی نقاط در صفحات دو بعدی XY، XZ و YZ با کنار گذاشتن نقاط پوشش گیاهی متراکم استخراج می شوند. در مرحله دوم لایه های ارتفاعی سقف ساختمان جداسازی شده و رئوس مهم سقف هر لایه با برازش خط و سرشکنی راستای خطوط استخراج می شوند. درنهایت پس از تشکیل مدل سقف ساختمان بااتصال رئوس مهم سقف، با اضافه کردن دیوار های ساختمان مدل کامل ساختمان ایجاد می گردد. در این تحقیق تمرکز بر روی مدلسازی ساختمان های در مجاورت پوشش گیاهی است. این روش بر روی ساختمان هایی با سبک های مختلف معماری سقف و اندازه متفاوت پیاده سازی شد و بیشتر ساختمان ها با موفقیت مدلسازی شدند؛ اگرچه با افزایش پوشش گیاهی و جزئیات ساختمان از دقت مدلسازی کاسته می شود. ساختمان های بازسازی شده به طور متوسط با دقت 42 سانتی متر برای نقاط گوشه ساختمان مدلسازی شده اند.
    کلیدواژگان: مدل سه بعدی، بازسازی ساختمان، داده لیدار، صفحه دوبعدی، روش بخش مبنا
  • زینب نیسانی*، محمد کریمی، علی اصغر آل شیخ صفحات 151-160
    مکانیابی شهری فرآیندی عمومی است که قطعا با در نظرگرفتن نظرات کارشناسان، متخصصین، شهروندان و مدیران حوزه مربوطه بیشترین میزان رضایت را ایجاد می نماید. در این راستا بکارگیری روش های تصمیم گیری گروهی مکانی در یک بستر شبکه اجتماعی مکان مبنا می تواند در پیشبرد توسعه شهری و مکانیابی خدمات عمومی موثر واقع شود. مقاله حاضر، با هدف تصمیم گیری گروهی جهت توسعه مکانیابی مراکز خدمات عمومی در محیط شبکه اجتماعی مکان مبنا به مطالعه موردی مکانیابی مراکز تجاری در منطقه شش شهرداری شهر تهران می پردازد. در ابتدا، بعد از بررسی ویژگی های کاربری های شهری در منطقه مورد مطالعه و با استفاده از پارامترهای محیطی، فاکتورهای مرتبط شناسایی و ارزیابی شدند. سپس اطلاعات مکانی مربوط جمع آوری وجهت استفاده در سامانه آماده گردید. معیارهای اصلی شامل جمعیت، تراکم ترافیک، شیب، ارزش زمین، دسترسی و معیار دسترسی شامل زیرمعیارهای فاصله از مراکز تجاری، فاصله از مراکز گردشگری، فاصله از معابر اصلی، فاصله از مراکز حمل و نقل عمومی، فاصله از پارکینگ ها است. محیط توسعه نرم افزار شبکه اجتماعی تلگرام[1] است. جهت تصمیم گیری گروهی، روش های سیستم اطلاعات مکانی فرآیند تحلیل سلسله مراتبی[2] و اکثریت فازی[3] به کارگرفته شده است. نتیجه این مطالعه نشان داد که تصمیم گیری گروهی مکانی[4] تحت وب از مهمترین ابزارهایی است که توانایی زیادی در اختیار برنامه ریزان شهری قرار می دهد و امکان مکانیابی های مختلف برای مراکز خدمات عمومی شهری را دارد. برای ارزیابی این سامانه تصمیم گیر، جامعه آماری حدود 40 نفر در نظر گرفته شد. نتایج مورد نظر نشان داد که در تصمیم گیری گروهی میزان پراکندگی گزینه های انتخاب شده و مطابقت آن با معیارها مناسب تر است ولی در تصمیم گیری فردی کاربران معمولا به یکی دو معیار توجه بیشتری نشان داده و تصمیم نهایی دارای پراکندگی و توزیع عادلانه ای نیست. رضایت کارشناسان نیز از نتیجه حاصل در تصمیم گیری گروهی 85 درصد و در تصمیم گیری فردی 60 درصد می باشد.
    کلیدواژگان: مکانیابی، شبکه اجتماعی مکان مبنا، تصمیم گیری گروهی مکانی، مراکزتجاری
  • محمدحسن وحیدنیا *، فرهاد حسینعلی، مریم شفیعی صفحات 161-175
    در لحظات پس از وقوع بحران (همچون وقوع زلزله، سیل و آتش سوزی)، نیاز به اطلاعات مکانی و نقشه های آنلاین به طرز قابل توجهی افزایش می یابد. با توجه به اورژانسی بودن عملیات امداد، داده های بدست آمده از وسایل همراه افراد داوطلب (مانند موقعیت خطر، تشریح و توصیف وضعیت و تصاویر بدست آمده) از جمله سریعترین و ارزانترین منابع اطلاعاتی می باشند. در این تحقیق با مطالعه و بهره گیری از فناوری های سیستم های تلفن همراه (Mobile)، تعیین موقعیت (GPS)، بستر اینترنت و Web 2.0، GIS Server و اهداف انبوه سپاری منابع مکانی (Crowdsource Mapping) سامانه ای نمونه برای جمع آوری چنین اطلاعات داوطلبانه طراحی و پیاده سازی می شود. از مهمترین مشارکت های مورد توجه بحث بهبود دقت موقعیتی هدف یا محل حادثه در زمان ارسال اطلاعات و به طور غیر مستقیم با توجه به موقعیت وسیله همراه می باشد. برای این منظور چندین راهکار خلاقانه طراحی گردید. این راهکارها شامل استفاده از سرویس های نقشه آنلاین، استفاده از سرویس های کدگذاری جغرافیایی (Geocoding) و استفاده از دوربین، شتاب سنج (Accelerometer) و سنجنده میدان مغناطیسی (magnetic field) وسیله همراه تحت محاسبات مثلثاتی می باشد. نتایج نشان داد که به لحاظ دقت موقعیتی انتقال به شیوه مثلثاتی و امکانات وسیله همراه بهترین نتیجه را حاصل می نماید. هرچند شیوه کدگذاری جغرافیایی به لحاظ زمانی به صرفه تر است. ارزیابی های متعدد انجام شده توسط کاربران نیز نشان داد که سامانه به راحتی قابل استفاده بوده و در صورت فراگیر شدن می تواند جایگزین سامانه های اعلام سوانح تلفنی گردد.
    کلیدواژگان: انبوه سپاری اطلاعات مکانی (Crowd-source mapping)، اطلاعات جغرافیایی داوطلبانه (VGI)
  • علی ابذل *، محمد سعادت سرشت، علی بابایی صفحات 177-188
    این مقاله به طراحی و ساخت یک سیستم اندازه گیری بر اساس تلفیق دو روش فتومتریک استریو و نگاشت فرینج بروش شیفت فاز می پردازد. هدف این تلفیق جلوگیری از اندازه گیری نقاط غیر ضروری متناسب با میزان جزئیات سطح می باشد. می توان انحنای هر پیکسل تصویری متعلق به سطح عارضه را توسط روش فتومتریک استریو بدست آورد. بنابراین پیش از محاسبه مختصات سه بعدی نقاط تصویر توسط روش نگاشت فرینج، میزان تراکم مورد نیاز برای سطوح مختلف عارضه توسط انحناهای بدست آمده از روش فتومتریک استریو پیش بینی می شود و نقاط غیر ضروری حذف می شوند. اضافه شدن روش فتومتریک استریو تنها هزینه تعدادی منبع نوری ارزان قیمت را به سامانه اسکنر می افزاید و نیز اضافه شدن چند تصویر به فرایند اندازه گیری را شامل می شود. اما در مقابل بسته به پیچیدگی هندسی سطح شئ، با کاهش 50% تا 75% زمان محاسبات و کاهش 50% تا 80% حجم داده برداشتی بواسطه حذف نقاط غیر ضروری را به همراه خواهد داشت. این کاهش تراکم با فرض جدایی مدل سبک شده به میزان 01/0 میلی متر از مدل اصلی متراکم صورت گرفته است. ​
    کلیدواژگان: سبک سازی ابر نقاط، فتومتریک استریو، نگاشت فرینج بروش شیفت فاز، اسکنر هوشمند
  • رضا صفرزاده رامهرمزی*، محمد کریمی، ساناز علایی مقدم صفحات 189-212
    امروزه مدیریت کاربری اراضی شهری یکی از نیازهای ضروری بسیاری از کشورهای در حال توسعه می باشد. تا کنون مدل های بسیاری جهت بهینه سازی چندهدفه تخصیص کاربری اراضی ارائه شده است. اما در اغلب این مدل ها برنامه ریزان با مجموعه ی زیادی از جواب هایی که اهداف عموما متناقض اقتصادی، اجتماعی و زیست محیطی را برآورده ساخته اند، مواجه می شوند که این مسئله تصمیم گیری را دشوار می سازد. از طرفی یکی از موضوعاتی که معمولا از دید محققان دور می ماند، لحاظ نمودن ساختار و الگوی مکانی رشد شهری در مدلسازی تخصیص کاربری اراضی است و مسلما جواب هایی که با الگوی توسعه شهری بیشترین سازگاری را داشته باشند، در اولویت قرار دارند. این ساختار و الگوی مکانی به وسیله ی شاخص های مکانی قابل تعیین می باشد. از این رو، هدف اصلی این تحقیق مدلسازی تخصیص بهینه کاربری اراضی شهری به وسیله ی الگوریتم های فراابتکاری و رتبه بندی جواب ها با توجه به الگوی مکانی رشد شهری و توسط شاخص های مکانی می باشد. مرحله ی اول مدلسازی در این تحقیق، با استفاده از الگوریتم های بهینه سازی چندهدفه NSGA_II و MOPSO صورت گرفته است و چهار تابع هدف اصلی شامل بیشینه سازی سازگاری، مناسبت کاربری با زمین، دسترسی مناسب کاربری ها و کمینه سازی هزینه ی تغییرات کاربری ها تعریف گردیده اند. در مرحله دوم با استفاده از تعریف شاخص های مکانی تلفیقی و تعیین الگوی مکانی توسعه شهر، جواب های حاصل از دو مدل، مقایسه و رتبه بندی گردیدند. مدل پیشنهادی در شهر تهران و با استفاده از نقشه های کاربری دوره های زمانی 1380، 1385 و 1390 در سه سناریو رشد شهری شامل ادامه ی روند موجود، رشد پراکنده و رشد متراکم پیاده سازی گردیده است. نتایج مدلسازی نشان می دهد شاخص های مکانی به خوبی از قابلیت محاسبه و پیش بینی ساختار و الگوی مکانی توسعه شهری برخوردار می باشند. همچنین با استفاده از شاخص های مکانی و رتبه بندی جواب های حاصل از الگوریتم ها، تصمیم گیرنده قادر خواهد بود تصمیم بهتر و قابل اطمینان تری با توجه به ساختار و الگوی مکانی توسعه شهر اتخاذ نماید.
    کلیدواژگان: برنامه ریزی کاربری اراضی شهری، شاخص های مکانی، NSGA-II، MOPSO، بهینه سازی مکانی چندهدفه، سیستم اطلاعات مکانی
  • محمد کریمی فیروزجایی، مجید کیاورز مقدم*، سید کاظم علوی پناه، سعید حمزه صفحات 213-232
    نرمال سازی دمای سطح نسبت به عوامل محیطی، از اهمیت بالایی در مطالعات علمی و تصمیمات مدیریتی برخوردار است. هدف از مطالعه حاضر، بکارگیری مدلی فیزیکی بر اساس معادلات بیلان انرژی خاک و پوشش گیاهی، برای نرمال سازی دمای سطح نسبت به پارامترهای محیطی است. به این منظور از تصویر ماهواره ای لندست 7، محصول دمای سطح AST08، محصول بخار آب MOD07، مدل رقومی ارتفاع ASTER، مجموعه داده های هواشناسی و اقلیمی و مجموعه داده های دمای سطح واقعی استفاده شد. در پژوهش حاضر، برای محاسبه دمای سطح لندست 7، از الگوریتم تک کاناله، تابش ورودی به سطح از مجموع تابش مستقیم و پراکنده خورشید و سطوح همسایه، نرخ افت محیطی از مدل رقومی ارتفاع و پوشش گیاهی از شاخص NDVI استفاده شد. درنهایت با تشکیل معادلات بیلان انرژی برای پوشش های خاک خشک و مرطوب و پوشش گیاهی با تنش و بدون تنش، دمای پوشش های مختلف با بهره گیری از روش نیوتن استخراج و با بهینه سازی پارامترها ی مدل به دو صورت بهینه سازی سراسری و محلی، دمای سطح مدل شده و نرمال شده بدست آمد. برای ارزیابی دقت نتایج، از شاخص های ضریب همبستگی و RMSE بین مقادیر دمای سطح مدل شده، بدست آمده از تصویر ماهواره ای و اندازه گیری شده زمینی و واریانس مقادیر دمای سطح نرمال شده استفاده شد. نتایج حاصل از پژوهش نشان دهنده این است که در حالت بهینه سازی سراسری، مقادیر معیارهای ضریب همبستگی، RMSE و واریانس برای داده AST08 به ترتیب 89/0، 6/2 و 44/6 و برای داده لندست 7 به ترتیب 93/0، 08/2 و 1/1 و در حالت بهینه سازی محلی، مقادیر این معیارها برای داده AST08 به ترتیب 962/0، 61/1 و 71/0 و برای داده لندست 7 به ترتیب 977/0، 2/1 و 13/0 است. بررسی نتایج پژوهش نشان داد که در هر دو روش بهینه سازی سراسری و محلی، کارایی تصویر لندست 7 برای نرمال سازی دمای سطح، از ASTER بالاتر است. همچنین استفاده از روش بهینه سازی محلی نسبت به بهینه سازی سراسری برای برآورد مقادیر بهینه پارامترهای مجهول، سبب افزایش دقت نتایج نرمال سازی شد. به صورت کلی، نتایج حاصل از پژوهش، نشان دهنده کارایی مناسب مدل ارائه شده برای نرمال سازی دمای سطح نسبت به پارامترهای محیطی بود.
    کلیدواژگان: نرمال سازی، دمای سطح، پارامترهای محیطی، بیلان انرژی، خاک، پوشش گیاهی
  • محمد مسعود رحیمی، فرشاد حکیم پور * صفحات 233-251
    امروزه کاربردهای نوین الگوریتم انطباق نقشه در کنار تلاش برای حفظ نرخ بالای موفقیت، با دو چالش نرخ های نمونه برداری متغیر و سرعت پردازش داده ها روبرو هستند. در این تحقیق یک چارچوب جامع، توزیع یافته، کارآمد و صحیح برای تحلیل انطباق نقشه ارائه شده است. چارچوب پیشنهادی در مواجهه با نرخ های نمونه برداری متفاوت و فارغ از وابستگی به حسگرهای اضافی توانسته به نرخ موفقیت مناسبی دست پیدا کند. همچنین استفاده از روش وزن دهی پویا باعث استقلال چارچوب از پارامترهای محلی شده است. استفاده از مفاهیم سطوح اطمینان صحت و سرعت عملکرد چارچوب را افزایش داده است. در این چارچوب برای پاسخ به چالش نرخ نمونه برداری پایین از الگوریتم کوتاه ترین مسیر A* با روش وزن دهی پویا استفاده می شود. وزن دهی قید کوتاه ترین مسیر با کمک اطلاعات HDOP انجام می شود. یکی از چالش های اصلی در به کارگیری داده های بزرگ FCD، ذخیره سازی، مدیریت، تحلیل و پردازش جمعی آن ها است. بدین منظور در این چارچوب از اصول رایانش ابری و الگوی نگاشت کاهش بر روی سکوی هدوپ (Hadoop) استفاده شده است. بدین ترتیب چارچوب فوق تحلیلی توزیع یافته، مقیاس پذیر و کارآمد را بر روی سخت افزارهای معمولی ممکن می سازد. جهت ارزیابی عملکرد چارچوب ناوگان حمل و نقل شهر نیویورک به عنوان یکی از بزرگترین ناوگان های حمل و نقلی جهان مورد مطالعه قرار گرفته است. نتایج ارزیابی ها بیانگر نرخ موفقیت 95.2 درصدی در نرخ نمونه برداری بالا (10 ثانیه) و 89.5 درصدی در نرخ نمونه برداری پایین (120ثانیه) است. همچنین مقایسه نتایج روش پیشنهادی با یکی از روش های شناخته شده نشان می دهد در نرخ نمونه برداری 120 ثانیه روش پیشنهادی صحت انطباق نقشه را تا 9.7 درصد بهبود داده است. ارزیابی ها نشان می دهد با حضور 5 گره پردازشی چارچوب پیشنهادی توانسته بیش از 7000 نقطه در هر ثانیه را بر روی نقشه منطبق کند.
    کلیدواژگان: داده های خودروهای شناور (FCD)، تحلیل انطباق نقشه (MM)، نرخ نمونه برداری متغیر، رایانش ابری
|
  • A. Sedaghat *, N. Mohammadi Pages 1-15
    Reliable image matching is a vital step in many photogrammetric processes. Most image matching methods are based on the local feature algorithms because of their robustness to significant geometric and radiometric differences. A local feature is generally defined as a distinct structure with properties differing from its immediate neighbourhood. Generally, local-feature-based image matching methods consist of three main steps, including feature detection, feature description and feature correspondence. In the feature detection step, distinctive structures are extracted from images. In the feature description step, extracted features are represented with descriptors to characterize them. Finally in the correspondence step, the extracted features from two images are matched using particular similarity measures.
    n this paper, an automatic image matching approach based on the affine invariant features is proposed for wide-baseline images with significant viewpoint differences. The proposed approach consists of three main steps. In the first step, well-known Hessian-affine feature detector is used to extract local affine invariant features in the image pair. In Hessian-affine detector a multi-scale representation and an iterative affine shape adaption are used to deal with significant viewpoint differences including large scale changes. To improve the Hessian-affine detector capability, an advanced strategy based on the well-known UR-SIFT (uniform robust scale invariant feature transform) algorithm is applied to extract effective, robust, reliable, and uniformly distributed elliptical local features. For this purpose, a selection strategy based on the stability and distinctiveness constraints is used in the full distribution of the location and the scale.
    In the second step, a distinctive descriptor based on MROGH (Multisupport Region Order-Based Gradient Histogram) method, which is robust to significant geometrical distortions, is generated for each extracted feature. The main idea of the MROGH method is to pool rotation invariant local features based on intensity orders. Instead of assigning a main orientation to each feature, a locally rotation invariant schema is used. For this purpose a rotation invariant coordinate system is used to compute the pixels gradient. To compute descriptor, the pixels in the feature region are partitioned into several groups based on their intensity orders. Then, a specific histogram based on the pixels gradient magnitude and orientation is calculated for each group. Finally, the MROGH descriptor is generated by combining the values of all the gradient histogram from all groups into a single feature vector.
    Finally, feature correspondence and blunder detection process is performed using epipolar geometry based on fundamental matrix. The initial matched features that are not consistent with the estimated fundamental matrix are identified as false matches and eliminated. A distance threshold TE = 1 pixel between each feature point and its epipolar line is considered as elimination condition. The experimental results using six close-range images show that the proposed method improves the matching performance compared with several state-of-the-art methods, including the MSER-SIFT, UR-SIFT and A-SIFT, in terms of the number of correct matched features, recall and positional accuracy. Based on the matching results, the proposed integrated method can be easily applied to a variety of photogrammetric and computer vision applications such as relative orientation, bundle adjustment, structure from motion and simultaneous localization and mapping (SLAM).
    Keywords: Image Matching, Hessian Affine, MROGH, Covariance Matrix, Close Range Images
  • F. Javaheri *, M. Saadatseresht Pages 17-28
    History inertial measurement unit (IMU) dates back to 1930. At that time, the technology because of its serious limitations on size, cost and power consumption, and the public was not applicable to small devices. Recent developments inertial measurement unit of MEMS sensors that are lighter, smaller and cheaper than other types of systems are inertial. These have made the inertial sensors in a variety of small devices such as mobile phones placed today. In this article, the first to introduce a variety of inertial systems and focus more on MEMS systems has been based on the mathematical model used where errors bias, scale factor and non-orthogonal axes is located. In summary, each of these errors can be expressed as follows. bias is the measurement error, regardless of the forces or the input rate of the sensor. The scale factor expresses the scale of the relationship between the output of a sensor with the force or the rate applied to the sensor. In other words, this error shows the difference between the ideal observation and the output of the sensor, and linear gradients are generated in observations in the inertial navigation systems. non-orthogonal axes between the axes is a defect in the construction and a lack of alignment of the three axes of measurement in the accelerometer or gyroscope. The following guidelines are provided to calibrate the static inertial systems. The methods by six static position (SPS), multi-position (MP) and recursive least squares (RLS) is an IMU used to determine the parameters of error. In this research, OARS software is used, a data aggregation system developed on the Android operating system. With 100Hz, this software provides accelerometer, gyroscope, magnetometer and GPS observations at 1 Hz. Observations of these sensors are stored in the csv format software in the phone's memory. In this study only gyroscope and accelerometer sensors are used. The results showed that the proposed methods First, the mathematical model with 12 parameters high dependency between the parameters compared to model 9 parameters. Secondly, if the raw observations in a particular situation, and the values averaged better results than entering into the equation raw observations or observations been removed noises by discrete wavelet transform. The unit of measurement error values in the multi-position on the three modes obtained by 0.082345, 0.083140 and 0.082952 is. Thirdly, the results of the error measurement unit in three ways proposed by 0.146245, 0.161520 and 0.082345 and because of the need to collect data in particular (exact alignment inertial system) to determine the calibration parameters show that the multi-position method is better than the other two methods.
    Keywords: Calibration, Inertial navigation systems, Accelerometers, Gyroscopes, DWT, Android
  • A. Azizi *, A. Hadiloo, M. A. Sharifi Pages 29-38
    Determination of the displacement vectors due to the landslide phenomenon is the initial stage for generating landslide inventory and susceptibility maps. The main objective of this paper is to evaluate the achievable accuracy of a simple two-dimensional localized geometric transformation method for the determination of the landslide displacement vectors. For this purpose, two IRS P5 backward images taken in two different revisit epochs over the Ardabil Province are used. The main objective of this paper is to compare the acquired image based displacement vectors with the ground measurements. The 2D localized transformation approach may be utilized to produce a small and medium scale country-wide landslide inventory maps and for continuous monitoring of the areas susceptible to large landslides. With regard to the fact that the coverage of the landslide zones in satellite imageries are usually small as compared with the entire image frame, the achieved accuracy figures suggest that the localized transformation approach may fulfill the required demands. Onsite displacement measurements performed by the GPS receivers, conducted by the ISTA SANJ DAGHIGH Co, were utilized to assess the accuracy of the localized transformation method. To compare the displacement vectors generated from the images with the ground observations, spatial registration between the points measured on the image and the points measured on the ground was conducted using the satellite supplied RPCs through which the ground coordinates for the measured image points are calculated. However, due to the fact that the supplied RPCs have a systematic shift error, to generate the ground coordinates for the measured image points, it is necessary to eliminate the systematic shift of the RPCs. This is achieved by identifying fixed feature points (outside the landslide zone) on the stereo P5 images for which ground observation were available through the large scale map of the area. The RPC shift error is then calculated by comparing the ground coordinates of the fixed points generated by the RPCs and their corresponding ground coordinates extracted from the large scale map. On the other hand, due to the lack of coincidence between the dates of the image acquisition and the ground observations, a temporal interpolation was also necessary. The temporal registration was performed using a linear interpolation approach assuming a linear land displacement. The average landslide speed on the ground was adopted as the amount of linear displacement trend for the period over which the assessment was conducted. The outline of the evaluation approach and a detailed description of the test results and the final accuracy figures are presented in this paper.
    Keywords: Landslide, Localized Geometric Transformation, Accuracy Evaluation, Temporal Registration, Spatial Registration, IRS P5 Backward Images
  • J. Maleki, F. Hakimpour *, Z. Masoumi Pages 39-55
    Urban land-use allocation is a complicated problem due to diversity in land-uses, a large number of parcels and different stakeholders with various and conflicting interests. A variety of studies presents many criteria in this regard. Different methods have been proposed for the optimal allocation of urban land-uses. The outputs of these methods are near optimum layouts that offer a suitable land-use for every land unit. However, because of some limitations such as disagreement of stockholders by a specific land-use or the high cost of land-use conversion to a certain land-use, it is not possible for planners to propose desirable land-uses for all parcels and as a result, have to use next priorities of the land-uses. Thus, prioritizing land-uses for parcels along with optimal land-use allocation could be essential in urban land-uses planning. Furthermore, due to the approximate nature of land-use evaluation criteria, using fuzzy calculations can be more compatible with the urban land-uses allocation models. Therefore, in this study, a parcel-level urban land-use prioritization model based on fuzzy calculation is presented. In the proposed model, at first evaluation criteria are estimated by fuzzy calculations for each parcel. Urban land-use evaluation criteria include neighborhood effects (i.e. compatibility, dependency, and proximity), physical suitability, and per capita. Compatibility and dependency factors depend on the different service level of each land-use. Each land-use is defined in three service level of local, district and regional and different radius of effect is considered according to these service levels. Furthermore, suitability criterion is calculated according to the characteristics and physical properties of land units for each land-use as a fuzzy number. Per-capita criterion is calculated as per capita violation in a fuzzy manner and is considered in land-use prioritization. After fuzzy calculations of criteria, the importance of each criterion must be determined. To determine the importance of each criterion in proposed model, the weight of criteria is estimated by subjective and objective weighting approaches. Expert knowledge is used for estimating subjective weights, and Shannon's entropy method applied for determining objective weights. The Fuzzy TOPSIS[1] technique is used to prioritize land-uses for each parcel. In fuzzy TOPSIS, after normalization and applying weights to each criterion, positive and negative ideal points are calculated based on the best and worst values of criteria. Finally, with calculating the distance of each land-use as alternatives from worst and best ideal points, land-uses will be ranked for each parcel. This procedure is repeated for all parcels in the study area, and therefore, all land-uses are ranked for all parcels. The proposed model was implemented on spatial data of region 7, district 1 of Tehran. Ranking urban land-uses for parcels in the study area showed that 77.2 percent of current land-uses have the first priority for their own parcels. It came that 22.8 percent of parcels in the study area were not allocated the first priority of land-use, and the land-use of these parcels can be susceptible to change. In the land-uses of the study area, in terms of susceptibility to changes, residential units have the best situation, and industrial units have worst situation. As a future research, based on proposed model, different scenarios can be proposed for optimal allocation of urban land-uses by taking into account stockholder's preferences. For modeling the stakeholder's preferences, approaches such as multi-agent systems and game theory can be used.
    Keywords: Urban Land-Use Prioritizing, Urban Land-Use Planning, Multi-Criteria Decision Analysis, Fuzzy Arithmetic, Fuzzy TOPSIS
  • A. Mohammadinia *, A. Alimohammadi, Z. Ghaemi Pages 57-73
    There are more than 200 types of zoonotic diseases in the world and leptospirosis is the most important. Leptospirosis occurs mostly in areas with a tropical climate and abundant rainfall. There are no specific statistics of this disease worldwide, and records are underestimated for several reasons. Hence, the World Health Organization (WHO) named leptospirosis as a neglected tropical disease in the world and more research is needed in this field. When paddy season in the north of Iran begins, the disease spread and in severe cases leads to death. Leptospirosis is recognized globally as a multi-faceted disease and failure to recognize or treat it onetime can lead to death of patients. The main cause of the spread of this disease is a bacterium present in the body of domestic and wild animals, especially mice and dogs (as reservoirs of disease) and transmitted through the urine or feces to the environment. As a result, the bacteria can be transmitted to the human body through injuries to the skin or contact with contaminated soil and water. The environment and occupation are very effective in the spread of the disease, which is recognized as a work-related illness and can be dangerous in both urban and rural areas. The emergence of this disease can be due to reasons such as agriculture, livestock, butchers, recreational activities and water sports, poverty, travel to tropical areas, and any activity that leads to contact with water, soil or contaminated environment. This disease is more prevalent in fishermen and farmers, especially sugar cane farmers and workers, and it is very important to cause problems such as inability to work properly in the time and season needed planting and harvesting, as well as medical costs and even mortality. Compared to other provinces, Guilan province has the highest rate of leptospirosis recently. Therefore, the study and modeling of this disease in the province is of great importance. In this paper, the disease statistics in the rural area during 2009-2011 were assessed as the dependant variable and five variables considered as independent variables for modeling spatial distribution. Considering the important effects of bandwidth and weighting function on modeling results, the efficiency of fixed and adaptive kernels, Bi-Square and Gaussian weighting functions investigated. Two criteria were utilized to evaluate the results include MSE and Definition Coefficient. The results showed that the adaptive kernel and Bi-Square performed better than the fixed kernel and Gaussian, respectively. In terms of bandwidth selection criteria, AIC, CV and BIC played more meaningful role consecutively. Among the environmental variables, Temperature, Humidity and Evaporation illustrated positive relationship with disease and, elevation and slope showed negative relationship. The maps of the distribution of the disease indicated that the central regions of Guilan province are more prone to this disease than the other areas, and management and control of the disease in these areas is very important. Finally, all results were assessed by validation criteria and decision makers can use this helpful information for prevention programs and allocation of budget to the risky areas.
    Keywords: Infectious Disease, Leptospirosis, GIS, Spatial Analysis, GWR
  • S. Khanbani *, A. Mohammadzadeh, M. Janalipour Pages 75-88
    Change Detection (CD) considered as an important issue among researchers due to its applications in different aspect like urban management, environmental monitoring, and damage assessment and so on. Different methods and techniques have been proposed for CD process. One of the most common categories presented in the field of CD is supervised and unsupervised techniques. Unsupervised CD techniques are based on image information and do not require any additional information including training samples. Several studies have been done for unsupervised change detection methods. Some of the proposed algorithm are based on clustering technique and considered two cluster centers for entire image. It can be critical because changed and unchanged pixels might not be present consistent behavior at entire image so it can be conducted misclassification of changed and unchanged pixels. Another method considered clustering process at block levels of image. So changed or unchanged pixel might not be present at all block level of image simultaneously, it can be leaded misclassification of above mentioned pixels. In this paper, a novel unsupervised CD method is proposed based on K-Means clustering algorithm improved by particle swarm optimization method (PSO) to solve above mentioned problem. The proposed method comprises five main steps including: 1-preprocessing (radiometric and geometric correction), 2-generation of difference image and feature extraction (neighborhoods pixels information), 3- split of difference image into non-overlapping block (block analysis), 4-the proposed PSO-K-Means clustering and create binary change map, and 5-accuracy assessment (i.e. absolute and relative accuracy assessment). The main goal of the proposed PSO-K-Means method is an automatic detection of change area which occurred between bi-temporal remote sensing images. In the most region, there is different spectrum of changes, so the aim of proposed method is detecting the spectrum of change area at block level and also preserving global image information. To achieve the mentioned aim a novel cost function which considered K-Mean clustering at block level and at entire image simultaneously presented in this paper. To find optimum clustering centers with the minimum cost or in other word finding optimum feature vector corresponded to optimum cluster centers (changed and unchanged clusters), the PSO method was employed. Three cost function comparisons were implemented in order to verify the necessity of the proposed cost function. Moreover, maximum voting method applied in order to combine different band change maps to improve CD result. Finally, a sensitivity analysis was employed in order to confirm the validation of the proposed PSO-K-Means method. The sensitivity analysis employed against different block size, different initial population and iteration in the optimization process. The results show the stability of proposed method against initial population and iteration parameters. The proposed algorithm showed sensitivity against changing block size of image. Experiments applied on two data sets (i.e., Alaska and Uremia Lake). Both Data sets acquired by the Landsat satellite with seven spectral bands and 30 meters pixel size with the same image size (400 × 400 pixels). The ground truth image was created manually by an expert in visual analysis of the input images. The proposed method improved change accuracy 8%-12% rather than common methods, (i.e. FCM, Otsu thresholding, K-Means, K-Medoids) in both Alaska and Uremia. The optimum block size determined using experimental result.
    Keywords: Unsupervised Change Detection, PSO-K-Means Clustering, Local Change Detection
  • M. Karimi Firuzjaei, M. Kiavarz Moghadam*, N. Mijani, S. K. Alavi Panah Pages 89-107
    Nowadays, urban sprawl phenomenon have been seen in many of cities in the developing and developed countries. Urban sprawl is considered as a particular kind of urban growth which comes up with a lot of negative effects. The analysis of urban growth using spatial and attribute data of the past and present, is regarded as one of the basic requirements of urban geographical studies, future planning as well as the establishment of political policies for urban development. Various methods have been used to investigate the physical growth of cities up to now. The remote sensing method and geographical information system are the most updated, precise and economical methods used to investigate the physical growth of cities. Since physical expansion occurs in temporal and spatial scale, the built-up land use can be extracted by using remote sensing multi-temporal data. Then, by comparing these data in different time periods by using statistical and spatial analysis of geographical information system, amount, and the ratio of changes were evaluated and its trend was modeled to be used in the urban planning. In this study six temporal satellite images of 44 years interval (1972, 1984, 1992, 2000, 2008 and 2016) have been classified to determine the urban extent and growth of Tehran in 8 different geographical directions within a circular region. So as to analyze data, Pearson’s chi-square statistics, Shannon’s entropy model and degree of goodness index were utilized. Pearson’s chi-square statistical model determines the amount of urban growth difference in various time periods which can be used along with Shannon’s entropy model to determine changes and scattering in the expansion of urban boundaries. The degree of goodness index can be used to investigate the urban growth quality. In the last studies, these models have been used to analyze spatial phenomena of the city such as changes trend in the city structure and shape in order to spatial expansion and land use changes. In this study, the used method of analyzing spatial data completely differs from the literature. In this model, a prediction model of CA-Markov is used to anticipate the urban growth in the year 2024 and also statistical parameters such as Shannon’s entropy and Pearson’s chi-square are used to analyze the way, the amount and the degree of goodness of the urban growth in the past and future. In this way, it was found that the city of Tehran has a high degree-of-freedom, high sprawl, and a negative goodness in urban growth. The total sprawl equals to 4.71 which is dramatically higher than half of value. As a result, it can be generally inferred that the city experienced a high sprawl value during 1972-2016 and this trend would continue to next years. The results indicate that in various time periods the city does not experience a good urban growth. The investigation of the degree of goodness index in various sectors also follows the same trend as various time periods. Nonetheless, different sectors and time periods can be compared to each other. Sectors of North and NorthEast compared to the other sectors, have the best and the worst urban growth, respectively. This study establishes the foundation for an in-depth recognition of urban expansion in Tehran and optimization of future urban planning.
    Keywords: Degree-of-Freedom, Degree-of-Sprawl, Degree-of-Goodnes of Urban Growth, Remote Sensing, Statistical, Tehran
  • N. Abdi *, A. R. Azmoudeh Ardalan, R. Karimi Pages 109-125
    Ionosphere is the upper part of the atmosphere that extends from 80 to 1200 km above the Earth’s surface. The existing free electrones and ions in the ionosphere layer affect the signal propogation speed such as satellite positioning and satellite altimetry signals. Regardless of the fact that Dual frequency measurments can remove ionospheric delay effect, dual frequency observations of the permanent GPS stations can also be utilized to produce the ionosphere maps including the vertical total electron content (VTEC) values. For instance, International GNSS service (IGS) sub-centers produce daily global ionosphere maps (GIMs) using the GNSS data. The spatial resolution of GIMs in the latitude and longitude directions is 2.5 degree and 5.0 degree, respectively, and their temporal resolution is 2 hours. One of the IGS sub-centers, namely CODE produces the GIMs based on the spherical harmonic basis functions up to the degree and order 15. The aim of this research is to develop a local inosphere model based on the B-spline basis functions using the combined GPS and satellite altimetry observations over Iran. Accordingly, the potentiality of the B-spline basis functions for local inosphere modeling was studied at first. For this purpose, a local ionosphere model (LIM) was produced based on observation data from 16 Iranian permanent GPS stations and 5 IGS ones and B-spline basis functions. My assumptions in this modeling are as follows: first, the ionosphere is a thin shell that is located on 450 km above the Earth’s surface, second, the smoothed code station observations obtained by Bernese 5.0 software is considered as observation vector. Third, the weight matrix elements are proportional to the satellite elevation angle. Forth, the differential code biases (DCBs) for all satellites which are obtained from IGS precise products, are considered as known parameters in the equations. And the last assumption was that a simple cosine mapping function was used to convert the slant total electron content (STEC) to the VTEC. As a result, the comparison between the LIM and the GIM showed that the B-spline basis functions were more efficient than the spherical harmonic ones for local ionosphere modeling. Following the first result, a new LIM, which is based on the B-spline basis functions, was produced by integration of permanent GPS station and Jason-2 satellite altimetry observations. The GPS and satellite altimetry observations were chosen from day 107 of year 2014, according to the latest maximum solar activity. The weight matrix of the GPS and satellite altimetry observations were determined based on the least-square varince component estimation (LS-VCE) method. The results showed that the local inosphere model derived from combination of the GPS and satelite altimetry observations were more accurate than the local inosphere model derived from the GPS observations only, this is due to the fact that the dual-frequency radar altimetry data are the main source of the ionospheric observations at sea, where there is no GPS permanent station, and can be used to improve the GIMs and LIMs. Finally As by-products, the DCB values for the permanent GPS recievers and the bias term between the GPS and satellite altimetry observations were determined.
    Keywords: B-Spline, DCB, GIM, LIM, LS-VCE, VTEC
  • S. Haji-Aghajany, Y. Amerian * Pages 127-138
    The Earth’s atmosphere can be described by a model of layers. Although there are also horizontal gradients of the meteorological parameters, it is sufficient for a general model to divide the atmosphere into a vertical layer structure since the vertical gradients of the meteorological parameters are significantly larger than the horizontal ones. Furthermore due to the influence of the gravity the regional horizontal differences become smoothed out towards higher altitudes. The atmosphere can be divided into the troposphere, the stratosphere, the mesosphere, the thermosphere and the exosphere. The tropospheric path delay is one the errors in GNSS observations and reduces the accuracy of GNSS positioning. Accurate estimation of tropospheric path delay in GNSS signals is necessary for meteorological applications. The tropospheric delay is divided into the dry and wet parts. The dry tropospheric delay depends on the pressure variations between satellite and Earth’s surface and can be determined accurately using the Saastamoinen and Hopfield models. The wet delay can be determined by subtracting the dry delay from the total GPS derived delayIn this paper the effect of radiosonde and ERA-Interim data in increasing the accuracy of positioning is compared. European center for medium range weather forecasting (ECMWF) is currently publishing ERA-I, a global reanalysis of the data. This reanalysis provides values of several meteorological parameters on a global ∼75 km. The vertical stratification is described on 37 pressure levels. The piecewise-linear (PWL) is a simple and powerful 2D ray tracing technique which is fast and accurate in processing. The refined piecewise-linear (RPWL) technique is another 2D ray tracing technique. The 3D ray tracing technique based on Eikonal equation is the strongest and newest ray tracing method. These equations are solved in order to get the ray path and the optical path length. The Eikonal equation itself is the solution of the so-called Helmholtz equation with respect to electro-magnetic waves. In this method the ray paths are not limited to a certain azimuthally fixed vertical plane. Tropospheric corrections were calculated using both types of data using 3-D ray tracing method in Bandar Abbas and Birjand stations. The station coordinates were determined using two
    Methods
    1-the tropospheric error was considered as unknown, 2-this error was not considered. Then tropospheric corrections obtained from ray tracing method was applied to the GPS observations and positioning was done. The Bernese GPS software version 5.2 has been used to process the GPS data. It performs ionosphere-free linear combination equation of dual frequency GPS observations from each site within the regional network. The ZTD was calculated using this software including raw data from the GPS observation network and the ZHD was calculated according to the Saastamoinen model. The results indicate the importance of tropospheric correction in precise positioning. In addition, these results indicate that the results obtained using radiosonde corrections in Bandar Abbas are more accurate than the results obtained using ERA-Interim data. Although the results of two types of data in Birjand station do not have much difference. This can be attributed to small variations of water vapor and other atmospheric parameters in Birjand station.
    Keywords: Tropospheric Delay, Precise Point Positioning, Meteorological Data, Radiosonde, Ray Tracing
  • M. Rezaei *, H. Arefi, H. Rastiveis, M. Sajadian Pages 139-150
    Nowadays the three-dimensional presentation of real world features is very important and useful, and attracted researchers in various branches such as photogrammetry and geographic information systems and those interested in three-dimensional reconstruction of the building. Buildings are the most important part of a three dimensional model of a city, therefore extraction and modeling buildings of remote sensing data are important steps to build a urban digital model.
    Although many efforts to reconstruct the three-dimensional building of LiDAR data have been made by researchers in recent years, but challenges still exist in this area, especially in urban areas. In previous studies, dense vegetation and tall trees in the vicinity of the buildings cause to difficulty in the building extraction process and reduction in the accuracy of the modeling results. The aim of this article is extraction and reconstruction of buildings by using LiDAR point clouds in urban areas with high vegetation. In this study, factors such as the LiDAR return pulse, the height of points and area of the region is used to separate the non-structural parts. Ground points in segment-based method by changing the size segment in each iteration by mean and standard deviation of the height of points in any segment extracted. The vegetation points are extracted and identified using LIDAR return pulse and a new method called "three-dimensional imaging of points on two-dimensional surfaces ". The projection process is done in the planes of XY, XZ and YZ. Using Illustration of points and changing the angle of view makes the point clouds be evaluated in different directions. Region expanding algorithm and length constraints imposed in different planes has an important role in the separation of dense vegetation. The modeling of building is done by using break lines and important vertices of the building roof in layers of roof height. Extraction of building edge points and height layers of roof is done separately in each building. This points are isolated by height analysis of the roof points. In the line approximations grouping the points in each height layer, line fitting and adjustment of line directions are factors that caused the break lines and points of the building roof to be correctly created. In roof modeling, the basic structure of the roof is modeled and then the parts on the roof are added to the model. The overall structure of the roof is made by roof vertexes and normal vector of generated planes. At the end, by calculating the point’s distances from roof plane, the roof parts are identified and the model of this components are added to the roof. The proposed method is evaluated on LiDAR point clouds in an area of the Stuttgart, Germany, with a density of 4 points per square meter.
    The accuracy of the proposed method is evaluated by visual interpretation and quantitative comparisons with information extracted by a human operator. The accuracy of proposed method is about 96 percent in extracting building points and modeling error at the corner of the building is approximately 44 cm. Overall, the results represent the success of the proposed method in extracting and modeling of buildings in areas with dense vegetation.
    Keywords: 3D Model, Building Reconstruction, Lidar Data, 2D Plane, Segment-Based Approach
  • Z. Neisani *, M. Karimi, A. A. Alesheikh Pages 151-160
    Site selection, as one of the key principles of urban planning, plays an important role and has a huge impact on the development of urban progression and citizen satisfaction. Urban site selection is a public process that will certainly create the most satisfaction with the views of citizens, experts, specialists and managers of the relevant fields. The purpose of the urban site selection is to determine the best possible site for an urban facility within a specific region. Site selection has a significant impact on the success or failure of a project. Especially in developing countries, public urban service centers failure is caused by the unsuitable site of the service. One of the main reasons for this challenge is related to the approach of decision making which is usually based on the experts’ knowledge. In this regard, the application of spatial group decision-making methods by means of the geo-social network can be effective in promoting urban development and site selection of public services. The purpose of this study is to develop an algorithm for site selection of public services centers via geo-social network platform in a case of shopping centers in the district six of city of Tehran. Also, the proposed approach attempted to integrate the opinions of different gropes of stakeholders including managers, experts and especially the citizens of the case study region. Initially, after examining the characteristics of urban land use in the study area and using environmental parameters, related factors were identified and evaluated. Then, the relevant spatial information was collected and make them ready for use in the system. Major criteria include: population, traffic congestion, slope, land value, accessibility. Accessibility criteria includs sub-criteria for a distance from business centers, distance from tourist centers, distance from main roads, distance from public transportation centers, and distance from parking lots. The software development environment is the Telegram social network with a different graphical user interface for collecting different opinions and showing the results. The decision-making process is carried out in tow steps. First, the weighting process is done with Analytical Hierarchy Process (AHP) by all the groups of stakeholders, and then we utilized the fuzzy majority for the integration of achievements in the first step. To assess this decision-making scenario, the statistical society was considered to be about 50 people (15 experts, 10 managers and 25 citizens of the region).
    The results showed that in group decisions, the dispersion of selected options and their compliance with the criteria is more appropriate, but in individual decision making, users tend to pay more attention to one or two criteria. The results of the final decision of distribution were not fair. Expert's satisfaction from the result of the group decision making is 85% while in individual decision making it is decreased to 60%. Also, geo-social spatial group decision making is one of the most important tools available to urban planners and allows site selection for various public utility centers. The designed methodology demonstrated the efficiency of geo-social networks for solving the urban public services site selection problem.
    Keywords: Site Selection, Geosocial Network, Spatial Decision Making, Shopping Centers
  • M. H. Vahidnia *, F. Hosseinali, M. Shafeie Pages 161-175
    After the first moments a crisis take place, quick emergency responses can be improved by updated spatial information and online map services of target places. Efficient use of GIS in the phase of response in crisis management requires having access to reliable data related to the crisis. Considering the critical situations at the initial moments of all disasters including earthquakes, floods, and accidents, as well as the great significance of geographic data in relief and providing the injured with appropriate care, the necessity of such data becomes apparent. The real time information acquired from crowdsourcing information can update the basic GIS server maps. Therefore, this study incorporates the capability of smart phone sensors, GPS, Web 2.0, VGI and Server-based technologies to design and develop a system for collecting target hazardous information from volunteers. Users can send information regarding the hazard location, its images, and other explanations to a central server through web technology and GPRS. This information and other crowdsourced information can be viewed by all users in real time through an updated map in the GIS Server. This online information can be used by relief groups so that they can hurry to the rescue of the injured with minimal loss of time. One of the most important contributions in designing this system is considering to the improvement of the positional accuracy of targets with respect to the position of the mobile device. Several approaches have been recommended for this purpose. The solutions include the use of online map services, the use of geocoding services, and the use of arithmetic methods based on the measurements of sensors embedded in a smart mobile phone. If a volunteered user for relief operations is convinced to determine the location using the various required methods and then send the results, the accuracy of the information can be verified with greater certainty. The evaluation by a sample group of mobile users indicated that the system was easy to use and could be a substitute for telephone systems of reporting incidents. Fifty three and twenty four percent of the sample group of respondents agreed and completely agreed with this claim, respectively. Based on the users’ views, if such a system is developed and used on a large scale, it will be widely employed to help crisis management and relief operations. Fifty-three percent of users agreed and thirty-five percent of them completely agreed with the claim that the system has a simple user interface and can be easily used. It was found that the initial location determined by the mobile positioning system could be improved through the use of online map services and/or by utilization of mobile sensors in the arithmetic method. The results showed that, from the positional accuracy perspective, the arithmetic method by the means of device embedded sensors would yield the best result. However, geocoding is more is more economical to save time. The system's evaluation also showed that this method would quickly compile target hazardous area information and provide guidance to relief groups.
    Keywords: Crowd-Source Mapping, Volunteer Geographic Information
  • A. Abzal *, M. Saadatseresht, A. Babaei Pages 177-188
    Three-dimensional measurement is one of the primary interests of various industries such as quality control, documentation of cultural artifacts and medical image processing. In recent years, contrary to the contact-based mechanical methods, active image-based methods using laser light [1] or white light [2] for recovering the surface of the object, have gained considerable attention because of their non-contact nature. Among these techniques, the phase-shifting digital fringe projection (DFP) is well-established due to its advantageous characteristics such as full resolution and high accuracy measurement [3]. Extremely dense point clouds that are obtained from structured light 3D scanners leads to many problems in further processing steps. The processing, modeling and visualizing of huge amount of points is a very hard problem for conventional computers [4].
    Most of the simplification methods suggest maintaining details. As a result, the high frequency noise in data are also kept during simplification process which leads to decrease the signal to noise ratio (SNR) in simplified data. Although the goal of the simplification step is to decrease further complexities in processing of point cloud, this simplification process still encounters high computational complexity such as search for neighbor points in three-dimensional space, curve fitting and normal extraction of surfaces. All existing simplification methods are applied after point cloud generation in the post-processing step. So, there is a waste of costs in calculations on the processing of a part of data which is not required to be generated during the three-dimensional measurement. Therefore, an algorithm/method that smartly generates the minimum required points that perfectly reconstruct the object can efficiently decrease the post-processing cost.
    A hybrid scanner system is proposed in this paper that prevents the production of unnecessary points during measurement by DFP technique, using the geometric characteristics of the surface that are obtained from Photometric Stereo (PS) technique. The PS method generates surface normal from the object surface. The surface curvature can be obtained for each image pixel using PS normal. The curvature image is classified and assigned to the different level of densities. The density levels are defined in image of the stereo camera in scanner system. So by removing pixels in regular numbers the density of each level is constructed. Hence, the first level of density is the same as maximum resolution of camera. Next levels are equal to 50 percent, 33 percent, 25 percent, and 20 percent of all pixels which are respectively result of sampling every other pixel, sampling one pixel from every two pixels, from every three pixels, and from every four pixels. Though, the question arises here that what is the criteria of determining the curvature intervals which are assigned to density levels. The basis of determining the curvature intervals for point simplification is the distance between simplified points and surface computed from original dense point cloud. This distance is chosen by user. In this paper it is equal to measurement system accuracy. So the unnecessary points are removed based on the curvature obtained via PS before calculation of 3D coordinates using FP technique. The surface normal obtained from PS has low high-frequency noise, so noisy data will not transfer to the simplified points. The simple hardware setup of PS technique provides an efficient tool for simplified measurement of DFP scanner. Also, the extraction and classification of geometric features of the object are performed in two-dimensional space with lower complexity in comparison with similar operation in three-dimensional space. The addition of PS method only adds the cost of a number of light sources to scanner system and also includes the addition of several images to the process of measurement. But on the other hand, it will reduce calculation time by 50% to 75% and will reduce the volume of data by 50% to 80% depending on the complexity of the geometry of the object. The reduction in density has been done with the assumption of maximum separation of simplified model from the main model with the distance of 0.01 mm and 0.02mm.
    The principal idea of the proposed method is to measure surfaces with the minimal required points that preserves the geometry. Contrary to most of the simplification methods, the proposed method performs simplification while measures the surface, so no more post-processing step for simplification is required. At first, surface normal are calculated by PS technique. Then surface curvatures are computed for each pixel in camera image from normal vectors and classified. Each class represents a point density level. The surface slope is also considered to correct foreshortening effect that is caused by projective geometry. The output of previous step is a 2D simplification guidance map which is used to measure 3D objects surface with DFP technique. All measurement steps by proposed system are as follows:•computing surface Normal and curvature
    •assigning curvature ranges to point density levels
    •3D measurement by DFP based on simplification map
    Keywords: Intelligent Optical Scanner, Fringe Projection, Photometric Stereo, Point Cloud Simplification
  • R. Safarzadeh Ramhormozi *, M. Karimi, S. Alaei Moghadam Pages 189-212
    Today, urban land use planning and management is an essential need for many developing countries. So far, lots of multi objective optimization models for land use allocation have been developed in the world. These models will provide set of non-dominated solutions, all of which are simultaneously optimizing conflicting social, economic and ecological objective functions, making it more difficult for urban planners to choose the best solution. An issue that is often left unnoticed is the application of spatial pattern and structures of urban growth on models. Clearly solutions that correspond with urban spatial patterns are of higher priority for planners. Quantifying spatial patterns and structures of the city requires the use of spatial metrics. Thus, the main objective of this study is to support decision-making using multi objective Meta-heuristic algorithms for land use optimization and sorting the solutions with respect to the spatial pattern of urban growth. In the first step in this study, we applied the non-dominated sorting genetic algorithm ΙΙ (NSGA_II) and multi objective particle swarm optimization (MOPSO) to optimize land use allocation in the case study. The four objective functions of the proposed model were maximizing compatibility of adjacent land uses, maximizing physical land suitability, maximizing accessibility of each land use to main roads, and minimizing the cost of land use change. In the next step, the two mentioned optimization models were compared and solutions were sorted with respect to the spatial patterns of the city acquired through the use of spatial metrics. A case study of Tehran, the largest city in Iran, was conducted. The six land use classes of industrial, residential, green areas, wetlands, Barren, and other uses were acquired through satellite imagery during the period of 2000 and 2012. Three scenarios were predicted for urban growth spatial structure in 2018; the continuation of the existing trend from 2000 to 2018, fragmented growth, and aggregated growth of the patches. Finally, the convergence and repeatability of the two algorithms were in acceptable levels and the results clearly show the ability of the selected set of spatial metrics in quantifying and forecasting the structure of urban growth in the case study. In the resulted arrangements of land uses, the value of the objective functions were improved in comparison with the present arrangement. In conclusion planners will be able to better sort outputs of the proposed algorithms using spatial metrics, allowing for more reliable decisions regarding the spatial structure of the city. This achievement also indicates the ability of the proposed model in simulation of different scenarios in urban land use planning.
    Keywords: Spatial Multi-Objective Optimization, Urban Land-Use Planning, MOPSO, NSGA-II, Spatial Metrics, GIS
  • M. Karimi Firozjaei, M. Kiavarz Mogaddam *, S. K. Alavipanah, S. Hamzeh Pages 213-232
    Land surface temperature plays an important role in the physics of surface atmosphere interactions. It is at the same time a driver and a signature of the energy and mass exchanges over land. Land surface temperature is highly variable in both space and time mainly as a result of the heterogeneity of the meteorological forcing, land cover, soil water availability, surface radiative properties and topography. Therefore, satellite-derived land surface temperature is widely used in a variety of applications including evapotranspiration monitoring, climate change studies, soil moisture estimation, vegetation monitoring, urban climate studies and forest fire detection. The normalization of the surface temperature relative to environmental parameters is essential in scientific studies and management decisions of urban and non-urban areas. For the first time, a normalization method for topography-induced variations of instantaneous solar radiation and air temperature has been applied to satellite land surface temperature. While land surface temperature data are widely used over relatively flat areas, this new approach offers the opportunity for new applications over mountainous areas. As a significant perspective, such a normalization method could potentially be used in conjunction with land surface temperature-based evapotranspiration methods over agricultural and complex terrain, soil moisture disaggregation methods and forest fire prediction models, among others. In practice, when applyingthe normalized land surface temperature as into to energy balance models, the energy balance would be driven by the mean (instead of the spatially-variable) downward radiation within the study area as it is commonly done over flat areas. The aim of the current study is to utilize the physical model based on the soil and vegetation energy balance equations for normalizing the land surface temperature relative to environmental parameters. For this purpose, Landsat 7 satellite bands, AST08 Surface kinetic temperature, MODIS water vapor product, ASTER digital elevation model and meteorological and climatic data sets were used. In the current work, topographic factors, the radiation which reached the surface, albedo, environmental lapse rate and vegetation, were considered as environmental parameters. For calculating the surface temperature, the single channel algorithm was used. Moreover, for calculating the downward radiation to the surface, the albedo of the surface, lapse rate and vegetation; respectively, direct and diffuss radiation of the solar and neighboring surfaces, a combination of Landsat 8 reflective bands, the digital elevation model, and NDVI index, were used. Finally, by creating the energy balance equations for dry bare soil cover, wet bare soil, fully stressed vegetation and unstressed vegetation, the temperature of various coverages was extracted by exploiting Newton's method and by optimizing parameters of the model in both global and local optimizations and combining resultant temperatures; modeled and normalized surface temperature was obtained. The environmental parameters normalization model is calibrated in two main steps using Landsat land surface temperature observations. The first step minimizes the mean difference between observed and modeled land surface temperature. The second step adjusts environmental lapse rate, surface soil dryness index and vegetation water stress index by minimizing the RMSE between Landsat land surface temperature and model-derived land surface temperature. For evaluating the accuracy of the proposed model results, coefficient correlation indexes and RMSE were used between the modeled and observed surface temperature values as well as the variance of normalized surface temperature values. The results of this study indicate that in global optimization, the values ​​of the correlation coefficient, RMSE and variance for AST08 data were 0.89, 2.6 and 6.44, respectively for Landsat 7 data 0.93, 2.08 and 1.1 and in local optimization mode, the values ​​of these criteria for AST08 data were 0.962, 1.61 and 0.71 respectively and for the data of Landsat 7, 0.977, 1.2 and 0.13. The results of the study showed that, in both global and local optimization methods, the performance of Landsat 7 for normalizing the land surface temperature is higher than ASTER. Also, the use of local optimization method for global optimization to estimate the optimal values ​​of the missing parameters increased the accuracy of normalization results. The investigation of results of the relation between the surface temperature and considered environmental parameters in this study before and after the normalization indicate that the effect of environmental parameters on the surface temperature noticeably reduced after the normalization. Results of the current study imply the high efficiency of the proposed model for normalizing the surface temperature relative to environmental parameters. Generally, the results of the research were an indicator of the efficiency of the proposed model for normalizing the surface temperature relative to environmental parameters.
    Keywords: Normalization, Surface Temperature, Environmental Parameters, Energy Balance, Soil, Vegetation
  • M. M. Rahimi, F. Hakimpour * Pages 233-251
    These days Floating Car Data (FCD) is one of the major data sources in Intelligent Transportation System (ITS) applications like route suggestion, traffic monitoring, traffic flow analysis and etc. Due to GPS limited accuracy and noises and road network errors, utilizing of FCD in ITS applications needs an efficient and accurate map matching framework. Map matching is a well-established problem which deals with mapping raw time stamped location traces to edge of road network graph. Along with high success rate, novel map matching applications faces several challenges including variable sampling frequency and processing speed of FCD big data. In this paper we have proposed a general, efficient, accurate and distributed map matching framework. The proposed framework can handle variable sampling frequency data accurately. Although this framework does not depend on additional data other than road network and GPS, achieved high success rate shows effectiveness of our system. We have used spatial proximity, heading difference, bearing difference and shortest path as our matching criteria. We also employed dynamic weights for each criteria to make our framework independent from local parameters. We have also employed confidence levels to improve our matching success rate. To answer low frequency data challenges, we have present an extra criteria based on A* shortest path method with dynamic weighting method. We have used HDOP for weighting shortest path criteria. When we are not confident enough about a point matching, we use shortest path criteria to improve success rate and by this method we keep our overhead low. For the evaluation we have studied New York City (NYC) OSM trajectories as the case study. We also used OSM NYC road network as the base map. The evaluation results indicate 95.2% MM success rate in high sampling mode (10s) along with 89.5% success rate in low sampling frequency (120s). We have compared our method with a known map matching method that In the case of low sampling frequency, our method has improved matching accuracy up to 9.7%. We have evaluated the effect of utilizing shortest path criteria in low frequency scenario. Our results show that using shortest path have improved our result up to 3.5%. One of the major challenges in using FCD is storage, managing, analysis and batch processing of this big data. To face this challenge in this framework we have used cloud computing technologies along with MapReduce paradigm based on Hadoop framework. The proposed cloud computing based framework can answer technical challenges for efficient and real-time storage, management, process and analyze of traffic big data. Our evaluation results indicate we have matched 7000 points/second on a cluster with 5 processing nodes. We have also processed 5 million records in 530 seconds using a cluster with 5 processing nodes. The main contributions are as follows: 1) we have proposed a general, distributed map matching framework using cloud computing technologies to answer to upstream ITS applications, 2) We have improved an efficient and accurate map matching algorithm which can handle different sampling frequencies using shortest path method and confidence level, 3) we have used dynamic method for weighting geometric, directional and shortest path constrains.
    Keywords: Floating Car Data, Map Matching, Cloud Computing