فهرست مطالب

نشریه علوم و فنون نقشه برداری
سال چهارم شماره 3 (پیاپی 15، بهمن 1393)

  • تاریخ انتشار: 1393/11/28
  • تعداد عناوین: 20
|
  • مهدی ساعتی*، جلال ا صفحات 1-10
    امروزه استخراج اتوماتیک راه از تصاویر ماهواره ای یکی از کلیدی ترین موارد تحقیقاتی در سنجش از دور می باشد که هدف عمده آن کاهش نقش نیروی انسانی می باشد. در این تحقیق روشی برای آشکارسازی نواحی راه از تصاویر راداری با روزنه ترکیبی و قدرت تفکیک بالا ارائه می شود. در این روش ابتدا بر اساس میزان رادیانس هر پیکسل و پیکسل های همسایه از تصویر ورودی ویژگی های چندگانه استخراج می شوند. در مرحله بعد ویژگی های استخراج شده در مقیاس های مختلف با در نظر گرفتن حد آستانه های محلی باینری شده و با یکدیگر تلفیق می گردند و در مرحله پایانی با در نظر گرفتن معیارهای مکانی و طیفی بطور جداگانه نواحی راه مناسب انتخاب می گردند. با اعمال این الگوریتم بر روی تصویر راداری ماهواره تراسار نتایج مطلوب و ریشه مربع متوسط معیار معادل 78 درصد حاصل شد.
    کلیدواژگان: آشکارسازی نواحی راه، تصاویر راداری، قدرت تفکیک بالا، روزنه ترکیبی
  • آلاله فلاح*، محمد سعادت سرشت صفحات 11-24
    در سالهای اخیر، بازسازی سه بعدی جزئیات محیط با استفاده از روش های ویدیوگرامتری مطرح در بینایی کامپیوتر بسیار مورد توجه جامعه فتوگرامتری بردکوتاه قرار گرفته است. از اینرو، در این تحقیق یک روش کارا جهت توجیه مطلق فریم های متوالی ویدیو به منظور تهیه نقشه نمای معابر شهری با دقت بالا ارائه گردیده است. به طور کلی تولید مدل سه بعدی از دنباله تصاویر ویدیویی شامل پنج گام اصلی کالیبراسیون دوربین، استخراج فریم های کلیدی، توجیه اولیه و نسبی فریم ها، توجیه نهایی و مطلق و در نهایت بازسازی سه بعدی کامل جزئیات می باشد. در این مقاله پیش فرض این است که گام های کالیبراسیون دوربین و استخراج فریم های کلیدی قبلا انجام شده و هدف توجیه مطلق فریم های کلیدی با روشی کارا است. روش ارائه شده از ترکیب روش های ویدیوگرامتری و نقشه برداری کلاسیک جهت توجیه مطلق فریم ها بهره می گیرد. بدین صورت که پس از توجیه نسبی فریم ها و تشکیل یک مدل سرشکن شده از نمای مورد نظر به روش ویدیوگرامتری، به کمک نقاط کنترل موجود در فریم ها که مختصات آن ها از نقشه برداری کلاسیک به دست آمده است، پارامترهای توجیه مطلق فریم های تصویری محاسبه می شود. طراحی و پیاده سازی بخش های مختلف روش پیشنهادی به گونه ای بوده است که بتواند برای نماهای شهری دارای بافت ضعیف و تکراری و شرایط نامناسب نوری نیز دقت کافی را ارائه نماید. بررسی ها نشان از سرعت بالای انجام پردازش ها و میزان دقت نقاط سه بعدی بازسازی شده در حدود سانتی متر دارند به گونه ای که برای مولفه های مسطحاتی (موازی صفحه تصویر) خطای کمتر از 6 سانتی متر با انحراف معیار حدود 3 سانتی متر و برای مولفه ارتفاعی (در راستای محور اپتیکی) خطای کمتر از 7 سانتی متر با انحراف معیار 2 سانتی متر به دست آمد. از اینرو از روش پیشنهادی می توان بصورت عملی برای تهیه نقشه های بزرگ مقیاس نمای معابر شهری استفاده نمود.
    کلیدواژگان: تناظریابی تصاویر، توجیه نسبی فریم ها، فریم کلیدی، ویدیوگرامتری، نقشه نماهای شهری، بازسازی سه بعدی
  • سمیه عباسی*، محمدرضا ملک صفحات 25-36
    در سیستم های حمل و نقل همراه، برای هدایت کاربران بین مقاصد مورد نظر، ارائه ی نقشه ای متناسب با ویژگی ها و شرایط محیط های همراه لازم است. به گونه ای که اطلاعات مکانی به صورت کارآمد و مفید در اختیار کاربر قرار گیرد. منظور از کارآمدی، نمایش و ارائه بهینه اطلاعات مورد نیاز به کاربر است. این تحقیق در زمینه ی بهبود نمایش نقشه در سیستم های حمل و نقل همراه، استفاده از ایده ی اصلی سیستم های بافت آگاه را بررسی می کند. ویژگی اصلی سیستم های بافت آگاه، ارائه خدمات و نقشه͏سازی با توجه به شرایط و به ویژه موقعیت کاربر است، به نحوی که نواحی نزدیک به کاربر با مقیاس بزرگتر و جزئیات بیشتر نمایش داده شود. همچنین نواحی دور از کاربر با مقیاس کوچکتر و محتوای اطلاعات کمتر نمایش داده می شوند. در بیشتر مواقع لازم است کاربر ضمن داشتن یک دید کلی از محیط، جزئیات بیشتر و مقیاس بزرگتری از مکان خود داشته باشد تا ارتباط مکان خود با عوارض اطراف و دوردست را نیز درک کند. بنابراین ترسیم یک پنجره ی بزرگنمایی برای نمایش موقعیت کاربر، نمی تواند پاسخگوی کاملی برای این نیاز باشد. در این پژوهش افکنش چشم ماهی برای بهبود نمایش نقشه در سیستمهای بافت آگاه بررسی شده است. با پیاده͏سازی این نوع نمایش و بررسی نتایج مشخص شد که بزرگنمایی تحت افکنش چشم ماهی، این امکان را به ما می دهد تا بتوانیم هنگام بزرگنمایی در ناحیه موردنظر، ارتباط آن قسمت از نقشه را با نواحی اطراف و عوارض جغرافیایی دورتر به راحتی حفظ کنیم. همچنین در مقایسه با پنجره ی بزرگنمایی با مقیاس ثابت، استفاده از افکنش چشم ماهی با ایجاد اعوجاج کروی درناحیه بزرگنمایی، سبب حفظ یکپارچگی در نمایش نقشه شده و برای نمایش نقشه در سیستم های حمل و نقل همراه سودمند است.
    کلیدواژگان: بصری سازی، بافت آگاه، افکنش چشم ماهی، سیستم اطلاعات مکانی همراه، سیستم حمل و نقل همراه
  • حامد امینی امیرکلایی*، پرهام پهلوانی، سعید صادقیان صفحات 37-50
    لیدار یک تکنولوژی جدید و رو به رشد جهت جمع آوری اطلاعات از سطح زمین است که بر مبنای اندازه گیری فاصله لیزر عمل می نماید. دقت مسطحاتی و ارتفاعی بالای ابر نقاط برداشت شده توسط لیدار و قابلیت ثبت قدرت شدت سیگنال بازگشتی، این پتانسیل را ایجاد نموده است تا بتوان از این داده ها جهت شناسایی و استخراج اتوماتیک عوارض استفاده نمود. استخراج راه، به عنوان زیرساخت توسعه و مجاری ارتباطی یک کشور اهمیت بسیار بالایی دارد. در این مقاله یک روند سلسله مراتبی پیشنهاد شده است تا بتوان با استفاده از داده های فاصله سنجی و شدت سیگنال لیدار و اعمال فیلتر های مخلتف با ترتیبی متناسب، عوارض غیر راه را شناسایی و حذف نمود. همچنین، از ایجاد شکستگی و شکاف میان اتصالات شبکه راه ها جلوگیری کرد تا شبکه اصلی راه ها با دقتی مطلوب استخراج شوند. در این راستا، ابتدا از طریق آستانه گذاری روی داده های شدت، استفاده از داده های فاصله برای محاسبه nDSM و شیب به همراه بردار نرمال بر سطح، سه لایه توصیف گر برای کلاس راه ها به دست آمد. سپس با استفاده از این سه لایه ایجاد شده و ترکیب خطی آن ها یک کلاس اولیه برای شبکه راه ها بدست آمد. آنگاه با استفاده از خصوصیات هندسی راه ها نویز موجود در نتایج شناسایی، حذف و نتایج بهبود داده شد. در نهایت با استفاده از الگوریتم اسکلت بندی و توصیف گرهای فوریه راه های فرعی شناسایی و حذف گشته و مرز راه ها نرم گشت تا نتایج نهایی شناسایی حاصل گردد. نتایج شناسایی راه ها از داده های لیدار توسط روش پیشنهادی از لحاظ صحت 80/65 % و کامل بودن 77/82 % حائز دقت بودند. بدین وسیله سعی شد تا از پارامترهایی که باعث تفکیک راه از سایر عوارض می شوند، استفاده گردد تا با اعمال پیاپی و منظم آن ها، شبکه اصلی راه ها با سرعت و دقتی بالا بدست آید.
    کلیدواژگان: بازگشت آخر فاصله سنجی، بازگشت آخر شدت سیگنال، استخراج راه، عملگر ژئودزیک مورفولوژی، توصیف گرهای فوریه
  • میر رضا غفاری رزین، علی محمدزاده* صفحات 51-60
    در این مقاله از یک شبکه عصبی مصنوعی پرسپترون 3 لایه با 5 نرون در لایه مخفی جهت مدلسازی مقدار محتوای الکترون لایه یونوسفر (TEC) استفاده شده است. بدین منظور از 25 ایستگاه GPS شبکه ژئودینامیک کشور ایران در محدوده عرض جغرافیایی 24 الی 40 درجه و طول جغرافیایی 44 الی 64 درجه استفاده گردیده است. ارزیابی نتایج بدست آمده از شبکه عصبی مصنوعی مدلسازی شده برای این منطقه توسط 1 ایستگاه تست GPS که مقادیر محتوای الکترونی آن از قبل در دست بوده انجام گرفته است. به دلیل اینکه ایستگاه مورد نظر مجهز به دستگاه اندازه گیری مستقیم دانسیته الکترونی بوده (دستگاه یونوسوند) و بصورت مستقل می توان در موقعیت آن ایستگاه مقدار محتوای الکترونی را با دقت و صحت بالا بدست آورد، از این ایستگاه برای تست نتایج استفاده شده است. مینیمم خطای نسبی بدست آمده از این ارزیابی 0/73 درصد و ماکزیمم خطای نسبی 34/66درصد می باشد. همچنین جهت ارزیابی کارائی شبکه های عصبی مصنوعی در برآورد مقدار محتوای الکترون یونوسفر، در این مقاله از یک چندجمله ای مرتبه 3 با 11 ضریب جهت مدلسازی TEC استفاده شده است. مقایسه مقادیر خطای نسبی محاسبه شده برای مدل چندجمله ای با مقادیر خطای نسبی بدست آمده برای شبکه عصبی، حاکی از برتری این روش نسبت به مدل چندجمله ای در برآورد مقدار محتوای الکترون لایه یونسفر در این منطقه است. تعداد نرونهای لایه مخفی در شبکه عصبی و نیز مرتبه و تعداد ضرایب چند جمله ای مورد استفاده در این مقاله بر اساس آزمون و خطا و با در نظر گرفتن مینیمم خطای نسبی برای نتایج تعیین شده است.
    کلیدواژگان: شبکه های عصبی مصنوعی، محتوای الکترون یونوسفر، مدل پرسپترون، پس انتشار خطا، مدل چندجمله ای، GPS
  • نسیم جعفری*، بهزاد وثوقی صفحات 61-70
    آشنایی با نحوه حرکت و تغییر مختصات نقاط سطح زمین با زمان، برای انواع کاربردهای ژئودتیک امری بسیار مهم و ضروری است. هدف از این تحقیق مدل سازی وابسته به زمان جابه جایی و تغییر مختصات نقاط سطحی زمین در اثر حرکت صفحه های زمین ساختی در محدوده رشته کوه های البرز و تخمین جابجایی در نقاطی از یک شبکه ژئودزی کلاسیک در البرز است. این مدل سازی بر اساس بردارهای سرعت مشاهدات GPS جمور و همکاران بین سال های 2000 تا 2008، انجام شده است. مدل سازی بر اساس روابط تحلیلی اکادا صورت گرفته است. در این تحقیق با استفاده از بهینه سازی به روش الگوریتم ژنتیک مشخصات گسلی شامل عمق قفل شدگی و نابرجایی ها محاسبه کنیم برداری سرعت بین لرزه ای نقاط به گونه ای مدل سازی شده که با میدان سرعت ناشی از مشاهدات GPS منطقه بهترین انطباق را باهم داشته باشند. کمترین جذر خطای مربعی متوسط (RMSE) مدل سازی حرکات بین لرزه ای برای مدلی که بهترین انطباق را با مشاهدات GPS داشت برابر mm/yr 0/97 محاسبه گردید. پس از مدل سازی جابجایی ناشی از حرکات بین لرزه ای، جابجایی های ناشی از زمین لرزه های بزرگ تر از 5 با استفاده از روابط تحلیلی اکادا مستقیما محاسبه شد و با جمع کردن این دو جابجایی، جابجایی های کلی به دست آمد. با استفاده از این مدل سازی، جابجایی در نقاطی از یک شبکه ژئودزی کلاسیک که 25 سال از تاریخ برداشت آن ها می گذرد تخمین زده شد و تغییراتی حداکثری تقریبی 80 سانتیمتری در برخی نقاط محاسبه گردید که قابل چشم پوشی نیستند.
    کلیدواژگان: میدان سرعت GPS، روابط تحلیلی اکادا، جذر خطای مربعی متوسط (RMSE)، شبکه ژئودزی کلاسیک، مختصات مسطحاتی
  • غلامرضا فلاحی* صفحات 71-86
    پدیده های موجود در جهان واقعی به دو دسته ایستا و پویا گروه بندی می شوند. پدیده های ایستا پدیده هایی هستند که در طول زمان ثابت می باشند ولی پدیده های پویا در طول زمان دچار تغییر می شوند که این تغییر ممکن است در مکان، هندسه، خصوصیات توصیفی و... پدیده انجام گیرد. از انجایی که خصوصیات ترافیک در طول زمان تغییر می یابد و نیز این خصوصیات به یک مکان تعلق می گیرد، یک پدیده مکانی-زمانی محسوب می گردد. امروزه پیشرفت فناوری باعث شده تا امکان مدیریت پدیده های مکانی-زمانی در سیستم های اطلاعات مکانی فراهم آید. هدف این تحقیق بررسی امکان کنترل و هماهنگ سازی چراغ های راهنمایی با استفاده از سیستم اطلاعات مکانی-زمانی می باشد. به همین منظور ابتدا مولفه ها و پارامترهای مربوط به تعیین شرایط ترافیکی و هماهنگ سازی چراغ ها جمع آوری شده و بر مبنای آن ساختار داده های ترافیکی زمانی (داده های پویا) برای ورود به پایگاه داده، تعیین می گردد. این ساختار به نحوی تعیین شده که متناسب با نوع رفتار ترافیکی موجود، شرایط ترافیکی لحظه ای بر مبنای اطلاعات دقیق کمی به سیستم معرفی می گردد. در این تحقیق، ذخیره سازی و مدلسازی داده های پویا به همراه داده های مکانی مربوط به مسیر خیابان ها (داده های ایستا) بر اساس مدل رابطه ای اشیای مکانی دارای برچسب زمانی انجام گرفته که با ایجاد ارتباط بین این داده ها، تغییرات به وجود آمده در شرایط ترافیکی در هر لحظه تعیین می گردد. بر اساس این تغییرات، پارامترهای ترافیکی و مقدار وابستگی بین تقاطع ها محاسبه می شود و سپس بر اساس این اطلاعات، زمانبندی چراغ ها به صورت منفرد و شبکه انجام می پذیرد.
    کلیدواژگان: چراغ های راهنمایی، سیستم اطلاعات مکانی، زمانی، اشیای مکانی دارای برچسب زمانی
  • حسین باقری*، سعید صادقیان، اصغر میلان لک صفحات 87-102
    تعیین و بررسی مدل های تصحیح هندسی و زمین مرجع نمودن تصاویر ماهواره ای با توجه به رونق استفاده از آن ها در بسیاری از زمینه ها در ده های اخیر به شدت مورد توجه قرار گرفته و به عنوان یکی از موضوعات مهم در فتوگرامتری و سنجش از دور مطرح است. در این مطالعه با استفاده از روش های مختلف مدلسازی به تصحیح هندسی تصویر ماهواره ای Worldview-2 پرداخته و سعی گردیده است تا یک ارزیابی جامع از قابلیت روش های مختلف در مدلسازی تصویر این ماهواره در منطقه شهری مانند تهران بدست آید. همچنین اثر تعداد و توزیع نقاط کنترل در روش های مدلسازی مورد مطالعه قرار گرفته است و در نهایت تصحیح هندسی با استفاده از توابع رشنال با دقت بالایی در حدود 0/36 متر حاصل گردید. علاوه بر روش های معمول از روش های هوش مصنوعی نظیر الگوریتم ژنتیک و شبکه های عصبی به منظور بهینه سازی استفاده گردید و با استفاده از شبکه پرسپترون با 4 نرون در لایه میانی دقت 0/71 پیکسل حاصل گردید و در نهایت مشخص شد که با استفاده از این الگوریتم ها می توان مدل های موجود را بهینه کرد و نتایج بهتری را نسبت به روش های معمول بدست آورد.
    کلیدواژگان: مدلسازی هندسی، Worldview، 2، ارزیابی دقت، الگوریتم ژنتیک، شبکه عصبی
  • علی خضروی*، فرید کریمی پور صفحات 103-116
    انسان موجودی وابسته به مکان است که نیاز دارد بداند کجا واقع شده و چگونه می تواند به مقصد خود برسد. ابزارها یی که وی برای این امر در اختیار دارد به طیف های متفاوتی تقسیم می شود. از آن جمله، می توان به ادراک مکانی انسانی و همچنین استفاده از تسهیلات راهبری چون نقشه و سیستم های دستیار راهبری اشاره نمود. نقشه های مورد استفاده در زندگی روزمره اعم از رقومی و کارتوگرافی، مجموعهای از اطلاعات متریک و اندکی از ویژگی های توپولوژیک محیط را در اختیار کاربر قرار داده، وی بر اساس این اطلاعات و تجربه ی قبلی در نقشهخوانی، به توجیه خود و راهبری در محیط میپردازد و یا با استفاده از سیستم های راهبری بدون هیچ گونه فعالیت ذهنی مکانی به مقصد راهنمایی می شود. این مقاله به بررسی روش های مختلف راهبری در محیط شهری پرداخته و رویکردی برای بهره گیری از مولفه های ادراک مکانی انسانی در فرایند راهبری را پیشنهاد می نماید. از آنجا که انسان برای راهبری، از مجموعهای از مولفه های ادراکی برای تعامل با محیط پیرامون خویش استفاده میکند، ارائه این مولفه ها در نقشه های شهری، می تواند موجب تسهیل توجیه و راهبری گردد و به فرایند شکل گیری نقشه ی ذهنی کمک نماید.
    کلیدواژگان: ادراک مکانی، راهبری شهری، دانش مکانی، نقشه ذهنی، توجیه، سیستم های دستیار راهبری، GIS
  • فرید کریمی پور، یوسف کنعانی سادات* صفحات 117-130
    آلرژی یکی از بیماری هایی است که به دلیل آلوده شدن محیط اطراف زندگی انسان به عوامل محرک آلرژی، در سالیان اخیر گسترش فزاینده ای داشته است. بهترین روش برای درمان بیماری آلرژی، شناسایی عامل آلرژی زا و سپس، دوری جستن از آن عامل است. در این میان، عوامل ناشناخته بسیاری هستند که می توانند موجب ایجاد آلرژی گردند که اغلب این عوامل از محیط زندگی افراد ناشی می شوند. این مقاله، به بررسی وابستگی میان وقوع نوع خاصی از بیماری آلرژی، آسم آلرژیک، با پارامترهای محیطی همچون فاصله از پارک، فاصله از خیابان و آلاینده های هوا مانند CO، SO2، NO2، PM10، PM2.5 و O3 می پردازد. برای این منظور، از روش کاوش قوانین وابستگی چند بعدی استفاده گردید و برای مدیریت عدم قطعیت موجود در داده ها ابعاد به صورت مجموعه های فازی تعریف شدند. قوانین کشف شده نشانگر تاثیر مثبت پارامترهای فاصله از پارک، فاصله از خیابان و آلاینده های CO، NO2، PM10 و PM2.5 بر وقوع آسم آلرژیک و عدم تاثیرپذیری آن از آلاینده های SO2 و O3 هستند.
    کلیدواژگان: آسم آلرژیک، داده کاوی، کشف قوانین وابستگی مکانی، قوانین وابستگی چند بعدی فازی
  • محسن شهریسوند*، مهدی آخوندزاده هنزایی، امیرحسین سوری صفحات 131-144
    یکی از مهمترین بلایای طبیعی که طی سالیان اخیر موردتوجه قرارگرفته، پدیده ی گرد و غبار است. در سال های اخیر این پدیده در ایران ابعاد تازه ای گرفته و از یک معضل محلی، به مسئله ای ملی تبدیل شده است. شناسایی و تشخیص طوفان گرد و غبار اولین مرحله در بررسی و پایش آن می باشد. این تحقیق باهدف شناسایی مناطق دارای گرد و غبار از تصاویر ماهواره ای، در منطقه خاورمیانه انجام گرفته است. در بررسی پدیده گرد و غبار تصاویر سنجنده MODIS با توجه به قدرت تفکیک زمانی و طیفی مناسب، از اهمیت ویژه ای برخوردار می باشند. در این مطالعه با استفاده از روش های طبقه بندی درخت تصمیمگیری، شبکه عصبی مصنوعی (ANN) و ماشین های بردار پشتیبان(SVM) تلاش شده است که گرد و غبار در تصاویر ماهواره ای MODIS تشخیص داده شود، که روش طبقهبندی ماشین های بردار پشتیبان به عنوان یک ایده جدید مطرح شده است. بهعلاوه بهمنظور بررسی دقت هر سه روش بکار برده شده، از محصول (AOD(Aerosol Optical Depth سنجنده OMI استفاده شده است، که نتایج نشان دهنده دقت و صحت بالاتر روش SVM نسبت به سایر روش ها می باشد. با توجه به نتایج بدست آمده، این الگوریتم قادر به شناسایی گرد و غبار در هر دو منطقه خشکی و آب بهطور همزمان می باشد و می تواند جایگزین مناسبی برای محصول (AOT(Aerosol Optical Thickness تولید شده برای گرد و غبار توسط ناسا (NASA) باشد.
    کلیدواژگان: گرد و غبار، تصاویر ماهوارهای MODIS، ماشینهای بردار پشتیبان، شبکه عصبی، درخت تصمیمگیری
  • فاطمه خامس پناه*، محمودرضا دلاور، حدیث صمدی علی نیا، مهدی زارع صفحات 145-156
    زلزله جزء مهم ترین مخاطرات تهدید کننده محیط های شهری می باشد که اهمیت زیادی در مدیریت بحران و تصمیم گیری های شهری دارد. بنابراین بکارگیری روش هایی جهت کاهش تلفات و خسارات ناشی از آن امری حیاتی و مهم بشمار می آید. یکی از این روش ها تهیه نقشه آسیب پذیری لرزه ایمی باشد.مسئله تعیین آسیب پذیری لرزه ای به دلیل وابسته بودنش به پارامترهای لرزه ای مختلف و نظر کارشناس همواره با عدم قطعیت هایی همراه است که عدم مدیریت صحیح عدم قطعیت در مسئله، منجر به برآورد نادرست از آسیب پذیری لرزه ای و در نتیجه آن تصمیم گیری های نادرست خواهد شد. عدم قطعیت در مسئله تعیین میزان آسیب پذیری به معنای عدم وجود راه حلی معین برای تعیین دقیق میزان آسیب پذیری می باشد. تا کنون تحقیقات مختلفی جهت مدیریت عدم قطعیت موجود در مسئله آسیب پذیری ارائه شده است که هر کدام جنبه های مختلفی از عدم قطعیت را مدیریت می کنند. جهت برآورد بهتر و قابل اعتمادتر در مسئله تعیین آسیب پذیری لرزه ای، نیازمند استفاده از روش هایی هستیم که هرچه بیشتر عدم قطعیت های موجود در مسئله را مدیریت کنند. در این مقاله هدف استفاده از مدل محاسبات دانه ای جهت مدیریت عدم قطعیت در مسئله آسیب پذیری لرزه ای می باشد. محاسبات دانه ای جزء روش های تصمیم گیری چند معیاره می باشد که در آن قوانین کلاسه بندی با حداقل ناسازگاری در قالب درخت دانه ای استخراج می شوند. مدلهای مختلف محاسبات دانهای بر اساس رابطه شباهت تعریف شده بین اشیاء در تشکیل دانه ها تعریف می شوند. رابطه معادلی ساده از جمله روابط ساده در تعریف دانه ها می باشد که در آن شباهت بین اشیاء بر اساس رابطه غیر قابل تفکیک پذیری تعریف می شود. در این مقاله از رابطه ی شباهت عمومی در تعریف دانه ها و دانه بندی اطلاعات استفاده شده است. در این رابطه علاوه بر رفع محدودیت رابطه معادلی ساده در تعریف شباهت بین اشیاء، مشکل قطعی بودن مرزها در رابطه معادلی ساده مرتفع گردیده است. دراین تحقیق نقشه آسیب پذیری لرزه ای شهر تهران در مقیاس حوزه های شهری با استفاده از مدل محاسبات دانه ای بر اساس رابطه شباهت عمومی تهیه شده است.
    کلیدواژگان: محاسبات دانه ای، عدم قطعیت، آسیب پذیری لرزه ای، درخت دانه ای
  • نازیلا محمدی*، محمدرضا ملک صفحات 157-166
    روش های مکانیابی ماهیت ذاتی تغییرپذیری جهان واقعی را در نظر نمی گیرند. در حالیکه در بسیاری از مسائل مکانیابی با پارامترهای متغیر با زمان مواجه می شویم. ممکن است در برخی موارد تغییرات این پارامترها قابل پیش بینی باشد که در این صورت بایستی به روشی مدلسازی شده و در مکانیابی لحاظ شود. در این مقاله مساله مکان یابی از نوع مساله p-میانه به صورت پویا فرمول-بندی شده و روشی بر مبنای هوش مصنوعی برای حل مسایل مکانیابی و تخصیص منابع پویا پیشنهاد شده است. جهت ارزیابی کارایی روش پیشنهادی و نیز روش های مکانیابی پویا، مساله نمونه ای از نوع NP-Complete، طرح و به دو صورت پویا و ایستا و با یهره گیری از روش مذکور حل شده است. نتایج حاصل از پیاده سازی نشانگر کارایی روش حل پیشنهادی و نیز روش های مکانیابی پویا نسبت به روش های ایستا در حل مسایل مکانیابی با وجود مدل تغییرات تقاضا در زمان می باشد.
    کلیدواژگان: هوش مصنوعی، مکانیابی مراکز خدماتی، تخصیص منابع، مدل سازی پویا، روش میانه
  • اصغر زارع، علی محمدزاده*، محمد جواد ولدان زوج صفحات 167-186
    در این مقاله روشی جهت آشکارسازی ساختمان ها و بازسازی مدل سه بعدی آن ها از طریق تصویر هوایی و داده های لیدار ارائه شده است. این پژوهش شامل سه مرحله کلی آشکارسازی ساختمان ها، بازسازی مرز دو بعدی ساختمان ها و بازسازی مدل سه بعدی ساختمان ها می باشد. در مرحله آشکارسازی ساختمان ها، عوارض غیرزمینی (درختان و ساختمان ها) از روی داده های لیدار استخراج می شوند و سپس جهت تفکیک ساختمان ها از درختان، طبقه بندی براساس ماشین های بردار پشتیبان (SVMs) بکار گرفته شده است. داده های آموزشی جهت انجام طبقه بندی ماشین های بردار پشتیبان بصورت نیمه اتوماتیک انتخاب شده است. جهت بهبود نتایج آشکارسازی ساختمان ها نیز ابتدا از عملگرهای مورفولوژی ریاضی استفاده شده است و سپس جداسازی ساختمان های غیرهم ارتفاع بر اساس دسته بندی K-Means انجام گرفته است. نتایج ارزیابی ها موفقیت روش پیشنهادی را در آشکارسازی ساختمان های بزرگ و کوچک نشان می دهند بطوری که شاخص های پیکسل مبنا جامع بودن، صحیح بودن و کیفیت برای روش پیشنهادی به ترتیب 86/60%، 99/10%، 85/92% می باشند. در مرحله بازسازی مرز دو بعدی ساختمان ها، مرزهای دو بعدی ساختمان ها بعد از برداری کردن با خلاصه سازی و عمود سازی استخراج گردیده اند. در این تحقیق، بازسازی سه بعدی ساختمان در سطح LOD2 انجام گرفته است. جهت کشف ساختار سقف ساختمان ها، ابتدا پارامترهای صفحه برازش یافته به نقاط لیدار بدست می آیند و با در نظر گرفتن این پارامترها بعنوان ویژگی های هر ساختمان، دسته بندی ISO-DATA انجام گرفته است که در نهایت نتایج این دسته بندی بیانگر تعداد سطوح صفحه ای هر ساختمان می باشد. با ادغام صفحات نزدیک و موازی و برازش صفحه به هر سطح صفحه ای، تعداد و پارامترهای سطوح صفحه ای هر ساختمان مشخص گردیده است. با تقاطع این سطوح و بدست آوردن نقاط میانی و نقاط مرزی هر ساختمان، ساختار سقف ساختمان ها بازسازی شده اند. دیوارهای ساختمان نیز بطور قائم بر روی مرز دو بعدی ساختمان قرار گرفته اند. مقدار RMS ارتفاعی صفحات تعیین شده برای ساختار سقف ساختمان ها 0/4 متر و مقدار خطای RMS کلی رئوس پلیگون های این صفحات 0/9 متر می باشد.
    کلیدواژگان: آشکارسازی ساختمان، بازسازی سه بعدی ساختمان، لیدار، ماشین های بردار پشتیبان، عملگرهای مورفولوژی، سطوح صفحه ای
  • نوید هوشنگی*، علی اصغر آل شیخ صفحات 187-200
    تابش خورشیدی در تعیین محل بهینه ی نیروگاه های خورشیدی و در مطالعات زمین شناسی و اکولوژیکی عاملی تاثیرگذار بوده و پارامتر اصلی بسیاری از مدل های هواشناسی و هیدرولوژیکی می باشد. در ایران 63 ایستگاه تابش سنجی موجود است که در قیاس با گستره ی کشور تراکم پایینی برای شبکه پایش تابش خورشیدی محسوب می شود. در تحقیق حاضر به منظور افزایش تراکم شبکه تابش سنجی و در نتیجه پهنه بندی دقیق تابش خورشیدی، از اطلاعات هواشناسی موجود در ایستگاه های سینوپتیک استفاده شد. با توجه به همبستگی بالای موجود بین مشاهدات تابش خورشیدی و اطلاعات هواشناسی (ساعات آفتابی، دمای بیشینه و همبستگی معکوس بالا با متوسط فشار از سطح آب های آزاد)، از این اطلاعات جهت محاسبه ی تابش خورشیدی در ایستگاه های سینوپتیک استفاده شد. در این تحقیق از روش های عمده محاسبات نرم همچون سیستم های استنتاج فازی (FIS) با خوشه بندی فازی، شبکه ی عصبی مصنوعی (ANN) و سیستم های استنتاج تطبیقی عصبی-فازی (ANFIS) بهره گرفته شد. نتایج حاصل از روش های مذکور توسط معیارهای دقت RMSE، MAE و MBE مقایسه شدند. نتایج نشان دادند که روش فازی سوگنو با خوشه بندی فازی RMSEای برابر با 07/28 وات بر مترمربع دارد که 18% درصد بهتر از روش شبکه عصبی؛ 39% بهتر از سیستم استنتاج عصبی-فازی با تقسیم بندی گریدی و 42% درصد بهتر از خوشه بندی کاهشی است. نتایج حاصل از MAE و MBE نیز حاکی از قابلیت بالای روش فازی سوگنو بود. این روش برای مدل سازی سیستم های پیچیده و غیرخطی انعطاف پذیرتر بوده و در پیش بینی مکانی تابش خورشیدی راحت تر و سریع تر (هم از نظر اجرای کاربر و هم به لحاظ نرم افزاری) قابل اجرا می باشد. تابش خورشیدی برآورد شده برای 333 ایستگاه سینوپتیک کشوری با روش کریجینگ عادی پهنه بندی شد. اطلس تابش خورشیدی حاصل از این تحقیق برای شناسایی نواحی پرتابش ایران به منظور کاربردهای مهندسی و برنامه ریزی انرژی مناسب می باشد. اطلس تابشی حاصل نشان داد که 32 درصد از مناطق کشور دارای تابش خورشیدی بالای w/m2 500 (مقدار تابش معیار برای نیروگاه های خورشیدی) هستند.
    کلیدواژگان: تابش خورشیدی، پیش بینی مکانی، شبکه عصبی مصنوعی، سیستم استنتاج فازی، سیستم استنتاج تطبیقی عصبی، فازی
  • محمد شاعری، رحیم علی عباسپور* صفحات 201-212
    خط سیر مکانی(spatial trajectory) تغییرات مکانی یک شی در طی زمان را ثبت کرده و به صورت رشته ای از نقاط گسسته که دارای مولفه های مکانی- زمانی هستند، مدل می شود. امروزه افزایش روز افزون دستگاه های متحرک و تکنولوژی های موقعیت یابی منجر به حجم انبوه و بیشماری از اطلاعات مکانی- زمانی و در پی آن نیازمند کاربردها و تحلیل های زیادی شده است. یکی از تحلیل های مهم در خطوط سیر مکانی استخراج خطوط سیر مکانی متشابه است. تاکنون توابع فاصله متنوعی برای اندازه گیری میزان شباهت خطوط سیر مکانی ارائه شده اند که هر یک، شباهت خطوط سیر را از جنبه ی خاصی بررسی کرده و برای داده ها با ویژگی-های متنوع کارآیی متفاوتی دارند. در نتیجه کارآیی توابع برای همه ی داده ها و کاربردها یکسان نبوده و برای انتخاب تابع مناسب نیازمند شناخت قابلیت ها و ویژگی های توابع هستیم. در این مقاله به بررسی 7 تابع بنیادی و متداول که اساس بسیاری از توابع فاصله دیگر هستند پرداخته و برتری ها و نواقص هر یک از روش ها ضمن روند ارزیابی مشخص می گردند.
    کلیدواژگان: خطوط سیر مکانی، توابع فاصله، شباهت
  • محمود رجبی*، علیرضا امیری سیمکویی، جمال عسگری، وهاب نفیسی، سینا کیایی صفحات 213-224
    یکی از منابع مهم خطا بر روی امواج GNSS اثر یونسفر زمین است. این لایه از اتمسفر زمین مملوء از ذرات باردار می باشد. اثر یونسفر بر روی امواج وابسته به میزان TEC در طول مسیر می باشد. در این مقاله از روش برآورد هارمونیک کمترین مربعات که یک روش آنالیز در حوزه فرکانس می باشد، جهت آنالیز سری های زمانی TECاستفاده می شود. داده های مورد استفاده مقادیر TEC قائم می باشد که از مدل های GIM(نقشه های TEC قائم یونسفری) به دست آمده و دارای پوشش جهانی می باشند. در اینجا از 15 سال داده در بازه زمانی سال 1998 تا سال2014 استفاده می شود. ابتدا روش هارمونیک تک متغیره و چند متغیره بر روی سری های زمانی اعمال، و فرکانس های مهم شناسایی می شود. آنالیز چند متغیره نشان می دهد که سیگنالهای پریودیک روزانه با پریود روزانه و هارمونیک های بالاتر و همچنین پریودهای سالیانه با هارمونیک های بالاتر در این سری ها وجود دارد. در ادامه توان طیفی برخی سیگنال های کشف شده در تمام نقاطی که داده موجود می باشد محاسبه و بررسی می گردد. نتیجه ای که برای هارمونیک های بالاتر پریود روزانه یونسفر (یک سوم روزانه، یک چهارم و یک پنجم روزانه) دیده شد، گویای این مطلب است که بیشینه توان طیفی در استوای مغناطیسی(Dip equator) اتفاق می افتد، که یکی از دلایل وقوع این پریودها می تواند میدان مغناطیسی زمین می باشد.
    کلیدواژگان: یونسفر، TEC، برآورد هارمونیک کمترین مربعات، آنالیز طیفی
  • سیدمحسن خضرایی*، وهاب نفیسی، سیدامیرحسن منجمی، جمال عسگری، علیرضا امیری سیمکویی صفحات 225-238
    با توجه به گسترش روزافزون استفاده از تکنیکهای تعیین موقعیت ماهوارهای خصوصا GPS لزوم تعیین دقیق ژئوئید باهدف جایگزینی اندازه گیری های ترازیابی با اندازه گیری های GPS در کاربردهای ژئودتیک بر کسی پوشیده نیست. تقریب ژئوئید با استفاده از داده های GPS/leveling به صورت محلی، در کنار مدل های موجود از قبیل مدلهای ژئوپتانسیل و یا ژئوئیدهای گراویمتری راهکاری پذیرفته شده است. اما سوال مهم سطح دقت قابل دسترس با استفاده از این روش است. مواردی چون کیفیت داده ها و یا تکنیک مورداستفاده برای مدل سازی این داده ها می تواند در دقت ژئوئید GPS/leveling تاثیرگذار باشد. در این مقاله به ارزیابی روش های نوین محاسباتی مبتنی بر یادگیری ازجمله شبکه های عصبی مصنوعی(ANN) و سیستمهای استنتاج فازی-عصبی تطبیقی(ANFIS) در مقایسه با روش استاندارد معادلات رگرسیون چندجمله ای چند متغیره (MPRE)، در مدلسازی ژئوئید GPS/Leveling پرداخته شده است. این ارزیابی در یک شبکه از ایستگاه های GPS و ترازیابی در شهرستان شاهین شهر اصفهان با ابعاد کوچکتر و توزیعی بسیار فشرده تر نسبت به مطالعات پیشین صورت گرفته و این کیفیت داده ها مدلسازی ژئوئید را با دقتی بهتر از 1 سانتیمتر ممکن ساخته است. نتایج نشان دهنده برتری چند میلی متری مدل های ژئوئید حاصل از ANN و ANFIS ازنظر مجذور میانگین مربعات خطاها و همچنین ازنظر ضریب تشخیص است و به ترتیب RMSE=8cm، R2=0.9949، RMSE=7cm، R2=0.9964. برای این مدل ها، در نقاط تست حاصل شده است. بنابراین مدل ژئوئید حاصل از ANFIS دقیق ترین ارتفاع ژئوئید را در سطح منطقه فراهم می سازد.
    کلیدواژگان: ژئوئید محلی، GPS، Leveling، شبکه های عصبی مصنوعی، سیستم های استنتاج فازی عصبی تطبیقی
  • امین نورمحمد*، محمد سعادت سرشت صفحات 239-252
    در یک دهه اخیر استفاده از سیستم های فتوگرامتری پهباد کم هزینه برای اخذ تصاویر پوشش دار و رسیدن به اهداف عمده فتوگرامتری که تهیه نقشه از یک منطقه می باشد رونق بسیاری پیدا کرده است که دلیل این توجه ویژه، مزایای فتوگرامتری پهباد در کاهش هزینه، سرعت بالا و نیاز کمتر به افراد متخصص و تجهیزات خاص نسبت به فتوگرامتری هوایی سرنشین دار و نقشه برداری زمینی است. به دلیل وجود تعدادی از عوامل، نظیر به کارگیری دوربین های رقومی غیرمتریک در این سیستم ها و همچنین ناپایداری این سیستم ها در برابر شرایط محیطی و جوی، تصاویر اخذ شده به وسیله این سیستم ها دارای مشکلاتی نظیر دوران های خارج از حد نرمال و تغییر مقیاس قابل توجه می باشند. با توجه به اینکه نرم افزارهای فتوگرامتری، براساس خصوصیات تصاویر اخذ شده از دوربین های متریک طراحی شده اند قادر به پردازش خودکار تصاویر اخذ شده از سیستم های فتوگرامتری پهباد کم هزینه نیستند و این مشکل موجب ایجاد یک گپ بزرگ بین مرحله اخذ تصاویر و محاسبات دقیق مثلث بندی هوایی شده است. در این تحقیق هدف، برطرف کردن گپ ایجاد شده از طریق پردازش خودکار تصاویر اخذ شده از سیستم های فتوگرامتری پهباد کم هزینه و آماده سازی داده ورودی به نرم افزارهای فتوگرامتری جهت مثلث بندی هوایی دقیق بوده است. در این راستا استخراج و تناظریابی دقیق عوارض نقطه ای که مستقل از تغییرات مقیاس و دوران باشند بر روی 116 تصویر اخذ شده از یک منطقه تپه ماهوری به وسیله پهباد کم هزینه، با به کارگیری الگوریتم های SIFT(Scale Invariant Feature Transform) و هندسه اپیپولار انجام شد. بر اساس تقاطع پروژکتیو و به کارگیری الگوریتم کواترنیون واحد، هم مرجع سازی تصاویر و بازسازی مختصات سه بعدی نقاط گرهی در یک سیستم مختصات مرجع اختیاری انجام شد و به همراه آن ها پارامترهای موقعیت و وضعیت دوربین در زمان تصویربرداری در این سیستم مختصات بدست آمدند. در نهایت تمامی این خروجی ها به صورت فرمت PATB به نرم افزار فتوگرامتری (LPS(Leica Photogrammetry Suite برده شدند و با یک سرشکنی دسته پرتوی دقیق در محیط نرم افزار LPS، مثلث بندی هوایی دقیق انجام شد و به عنوان نمونه، مدل سه بعدی از زوج تصاویر جهت تبدیل تصاویر به نقشه سه بعدی، مدل ارتفاعی رقومی زمین و ارتوفتو موزاییک از بخشی از منطقه بدست آمد.
    کلیدواژگان: فتوگرامتری پهباد کم هزینه، SIFT، هندسه اپی پولار، تقاطع پروژکتیو، کواترنیون واحد، بازسازی سه بعدی، سرشکنی دسته پرتو
  • بهناز بیگدلی*، فرهاد صمدزادگان صفحات 253-286
    با پیشرفت های کنونی در سنجش از دور و علوم مرتبط با آن، داده سنجش از دور فراطیفی با فراهم آوردن حجم بالای اطلاعات طیفی برای تشخیص بهتر کلاس های زمینی مورد استفاده فراوان قرار می گیرد، اگرچه تعداد زیاد باندهای طیفی در مقابل تعداد کم نمونه های آموزشی در دسترس، مشکل «پدبده هیوز» را در این داده ایجاد می کند. به علاوه تعداد زیاد باندهای طیفی که اغلب به یکدیگر وابسته می باشند، شامل اطلاعات زاید فراوانی هستند. این سطح بالا از پیچیدگی در داده های فراطیفی، باعث عدم کارایی روش های طبقه بندی کلاسیک در طبقه بندی این نوع داده می شود. با توجه به محدودیت های طبقه بندی کننده های انفرادی در این شرایط، سیستم های حاوی مجموعه طبقه بندی کننده ها ممکن است کارایی بهتری نسبت به طبقه بندی کننده های انفرادی داشته باشند. تحقیق پیش رو یک روش نوین برای طبقه بندی داده های فراطیفی با بکارگیری یک سیستم چندگانه ماشین های بردار پشتیبان که شامل گروه بندی باندهای طیفی است، معرفی می کند. روش پیشنهادی در اولین گام برای گروه بندی باندهای طیفی از روشی براساس اطلاعات دوطرفه یا متقابل استفاده می کند. روش پیشنهادی در دومین گام، از ماشین بردار پشتیبان به منظور طبقه بندی هر گروه از باندهای طیفی استفاده می کند تا مجموعه ای از طبقه بندی کننده ها حاصل شود. سرانجام روش پیشنهادی یک الگوریتم ادغام طبقه بندی کننده ها براساس تئوری بیز با نام (Naïve Bayes (NB را بکار می برد. نتایج حاصل از روش پیشنهادی برای دو نمونه از داده های فراطیفی نشان می دهد که روش پیشنهادی در مقایسه با SVM استاندارد-طبقه بندی کننده ایی که همه باندها را در یک زمان طبقه بندی می کند- نتایج بهتری را ایجاد می کند. این نتایج همچنین کارایی مفهوم گروه بندی باندها و سیستم های طبقه بندی کننده چندگانه را در مقایسه با روش های معمول پیشین نشان می دهد.
    کلیدواژگان: داده فراطیفی، ماشین های بردار پشتیبان، سیستم های طبقه بندی کننده چندگانه، گروه بندی باندهای طیفی، تئوری بیزین
|
  • M. Saati *, J. Amini Pages 1-10
    Automatic extraction of road from satellite images is one of the most important researches in the field of remote sensing. The method proposed in this study is based on a fuzzy method for detection of road areas from high resolution SAR images. In this method, the multiple features are extracted first based on the backscatter coefficient of each pixel and its neighbor pixels from the input image. The extracted features are combined with each other in the next step using a fuzzy algorithm and the desired road areas are selected separately in the last step considering the spatial and spectral criteria. The favorite results and root mean square of 78% were obtained by applying this algorithm on high resolution SAR images obtained from the TerraSAR satellite.
    Keywords: Multiple features, Road detection, Fuzzy algorithm, High resolution, Synthetic aperture radar
  • A. Fallah *, M. Saadatseresht Pages 11-24
    Nowadays building three dimensional models using a sequence of images of the scene is an important issue in close range photogrammetry known as videogrammetry. In this paper, we propose an efficient absolute orientation of video frames method for urban 3D reconstruction and mapping. Generally, we have five steps for 3D reconstruction from video sequence: camera calibration, key frames extraction, relative orientation of key frames, absolute orientation of key frames and dense 3D reconstruction. We suppose the calibration step and key frames extraction step are done beforehand and our purpose is absolute orientation of video frames with an effective method. The method uses videogrammetric solution in combination with surveying for absolute orientation. After relative orientation of video frames and creating an adjusted model from the scene, absolute orientation is done using the control points just in first and last frames. The results in real scene shows the efficiency of the method.
    Keywords: Image Matching, Relative Orientation, Key Frames, Videogrammetry, Urban View's Map, 3D Reconstruction
  • S. Abbasi *, M. R. Malek Pages 25-36
    Abstract In a navigation system, map visualization based on vehicle’s location and environment plays an important role. Therefore, it is necessary to visualize useful information in an optimum method. One of the most important issues in mobile GIS applications and almost all location-based services is to serve an efficient and useful map for user. To this goal, the main idea from context awareness systems can be provided. In the framework of this paper, visualization method for navigation tasks is developed. The essential idea of this research is to use context-aware properties in map visualization. The main feature in such systems is to represent maps with respect to user requirements and specially user location. The idea is serving maps to user by focusing on user’s position so that area which is closer to user is displayed in larger scale with more details and the area some far around the user with smaller scale with less information content will be displayed. In most cases user needs to have a global view of whole environment and also needs to focus on specific position. So using a zoom window with fixed scale to display the user's position could not be a complete answer to this need. In this paper, we utilize the fisheye projection as a solution improving location-aware map visualization. Results show that fisheye projection allows focus on user location, while maintaining the relationship associated with that part of the map with the surrounding area. Also in contrast to zoom window with fixed scale, fisheye projection with spherical aberration, preserve the integrity of the information. Our practical work; shows usefulness using such projection system for displaying map in a navigation system.
    Keywords: map visualization, context awareness, fisheye projection, location aware, mobile transportation systems
  • H. Amini *, P. Pahlavani, S. Sadeghian Pages 37-50
    LiDAR is a recent and progressive technology for collecting data from surface that operates based on the laser length measurements. High planimetry and altimetry accuracy of the obtained LiDAR point-cloud, as well as the ability to record intensity are the reasons to utilize LiDAR data for detecting objects. Extracting roads as both important urban objects and connection channels of a country is vital significantly. In this paper, a hierarchical approach was proposed for extracting the main road network with acceptable precision. The proposed method eliminated non-road objects by using range and intensity data and applying some filters successively. Also, it prevented to produce gap and fracture in the road network. In this regard, firstly, three features were produced by specifying a threshold on the last intensity pulse and utilizing the last range pulses to obtain nDSM, as well as producing slope with normal vectors. The linear convolution of the produced feature layers was computed to obtain an initial road class. Subsequently, it was tried to remove noises from the initial road network and improve detection results according to the road geometrical characteristics. Finally, the skeleton morphological filter and Fourier features were used to smooth roads boundaries and to eliminate byroads. The evaluation results of the road extraction using our proposed approach achieved 80.56% Correctness and 77.82% Completeness. Generally, we tried to use all parameters that are useful for separating roads from other objects in order to extract the main road network with high accuracy and speed by applying them successively.
    Keywords: LiDAR data, Last intensity pulse, Last range pulse, Road extraction, Geodesic morphological filter, Fourier features
  • M. R. Ghaffari Razin, A. Mohammadzadeh* Pages 51-60
    In this paper, 3-layer perceptron Neural Network has been used with 5 neuron in hidden layer for modeling the Ionospheric Total Electron Content (TEC) Over Iran. For this purpose, 25 GPS station from IPGN is used. These 25 stations are located within a range of approximately 24oN to 40oN and 44oE to 64oE. Evaluation of the results has been applied with 1 GPS station in Tehran. The station is equipped with ionosonde. So it is possible to calculate independently the TEC at the station. Minimum relative error obtained from evaluation is 0.73% and maximum relative error is 34.66 %. In this research, for the evaluation of artificial neural networks in estimating the TEC, a polynomial of degree 3 with 11 coefficients are used. Comparison of the relative error from polynomial model and relative error from neural network, illustrate the superiority of the neural model with respect to polynomial in this region. The number of neurons in hidden layer of neural network and the order and coefficients of the polynomial used in this paper is determined by trial and error, and by taking the minimum relative error for the results.
    Keywords: Neural Networks, Total Electron Content, Perceptron Model, Back propagation algorithm, Polynomial fitting
  • N. Jafari *, B.Voosoghi Pages 61-70
    To know how coordinates of points on Earth surface are changing by time is very important for geodetic applications. At first step, the paper presents a time dependent model for point displacements caused by plate tectonics in ALBORZ Mountains, then displacements for points of ALBORZ classical geodetic network will be estimated. This estimation is performed for points without continuous GPS observations. Velocity vectors of an independent research based on GPS observations between 2000-2008 are used as constraints of this model. Modeling is based on analytical relations of OKADA. In this research, using a method of inverse genetic algorithm, dislocations and depth fault are computed. Minimum root mean square errors of the model for interseismic displacements is about 0.97 mm/yr. The total displacement of each station is obtained by summation of the vector of the modeled interseismic movement and displacement vector fields for earthquakes with magnitude which are computed directly by OKADA relations. Maximum amount of changes of the coordinate stations of the 25 year old classical geodetic network in ITRF frame approximately is 80 cms which cannot be neglected.
    Keywords: GPS velocity field, Analytical relation of OKADA, Root mean square error, Classical geodesy network, Surface displacement
  • Gh.R. Fallahi * Pages 71-86
    Phenomena in the real world are grouped into two categories: static and dynamic. The static phenomena don’t change with variation of the time but the dynamic phenomenon will do it so. These changes may be occurred in the phenomena property like spatial or geometry. Traffic is a Spatio-Temporal phenomenon because its properties which are referring to some locations on the earth will change in respect to the time variation. Today, due to the development of technology, the management capability of the spatial-temporal phenomenon has been provided in a Temporal Geospatial Information System (TGIS). The objective of this research is study of using TGIS for controlling and coordinating of traffic signals. For this purpose, first, parameters and components for determining traffic condition and coordinating traffic signals are collected. Then based on these data, the structure of the traffic data is determined for entering into a database. This structure determined in such a way that the traffic condition is introduced to the system based on the type of existing traffic behavior. In this study, the dynamic data along with spatial data of street path (static data) are stored and structured based on relational model and Time Stamping Spatial Objects model. With performing relation between these data the instant variations of the traffic condition is determined. Based on these variations the traffic parameters and offset between different intersections are computed and then based on this information the schedule of traffic signals will be implemented with a singular or network method.
    Keywords: Traffic signal, Temporal Geospatial Information System, Time Stamping Spatial Objects
  • H. Bagheri *, S. Sadeghian, A. M. Lak Pages 87-102
    In the recent decades, the determination and evaluation of geometrical correction models as well as georeferencing satellite images have been of great consideration due to their frequent use in various fields, and are regarded a leading topic in photogrammetry and remote sensing. This paper is about the geometric correction of the Worldview-2 satellite image using different modeling methods and tries to give an overall evaluation of strength of various possible modeling for a prototype image of an urban area like Tehran. The distribution and number of control points with regard to their effects in each modeling method were examined which resulted in a high precision of a final geometry correction about 0.36 meter using rational functions. For more optimization artificial intelligent methods like genetic algorithms and neural networks were used. With the use of perceptron network, a result of 0.71 pixels with 4 neurons in middle layer was gained and the final conclusion was that with these algorithms it is possible to optimize the existing models and have better results than usual ones.
    Keywords: Geometric modeling, Worldview, 2, Precision evaluation, Genetic algorithm, Neural network
  • A. Khazravi *, F. Karimipour Pages 103-116
    Human activities are embedded in the space. People frequently use their spatial cognitive abilities in familiar spaces or navigational aids (e.g., map and Satnav) in unfamiliar areas to position and find their ways. Nowadays, satellite navigation systems are widely used by even non-experts; people find it efficient and easy to use. These systems do positioning, way finding and guidance in a nonstop and reliable way. In other word they make it easy to navigate, it is where the problems come from; people have to get depend on these systems and lose their innate ability to navigate without any non-environmental aids. This paper is intended to merge the bests of various navigation methods to have a cognitively enhanced navigation aids which could promote people spatial cognition.
    Keywords: Spatial Cognition, Cartographic Maps, Cognitive Map, Landmarks, Map Reading, Urban Navigation, Pedestrian Navigation
  • F. Karimipour, Y. Kananisadat* Pages 117-130
    The prevalence of allergic diseases has highly increased in recent decades due to contamination of the environment with the allergy stimuli. A common treat is identifying the allergy stimulus and, then, avoiding the patient to be exposed with it. There are, however, many unknown allergic diseases stimuli that are related to the characteristics of the living environment. In this article, we focus on the effect of air pollution on asthmatic allergies and investigate the association between prevalence of such allergies with those characteristics of the environment that may affect the air pollution. For this, spatial association rule mining has been deployed to mine the association between spatial distribution of allergy prevalence and the air pollution parameters such as CO, SO2, NO2, PM10, PM2.5, and O3 (compiled by the air pollution monitoring stations) as well as living distance to parks and roads. The dimensions have been defined as fuzzy sets in order to handle the data uncertainty. The results for the case study (i.e., Tehran metropolitan area) indicates that distance to parks and roads as well as CO, NO2, PM10, and PM2.5 is related to the allergy prevalence, while SO2 and O3 have no effect on that.
    Keywords: Fuzzy Spatial Association Rule Mining, Asthmatic Allergy, Air Pollution, Apriori
  • M. Shahrisvand *, M. Akhoondzadeh Hanzaei, A. Souri Pages 131-144
    Nowadays, dust storm in one of the most important natural hazards which is considered as a national concern in scientific communities. This paper considers the capabilities of some classical and intelligent methods for dust detection from satellite imagery around the Middle East region. In the study of dust detection, MODIS images have been a good candidate due to their suitable spectral and temporal resolution. In this study, physical-based and intelligent methods including decision tree, ANN (Artificial Neural Network) and SVM (Support Vector Machine) have been applied to detect dust storms. Among the mentioned approaches, in this paper, SVM method has been implemented for the first time in domain of dust detection studies. Finally, AOD (Aerosol Optical Depth) images, which are one the referenced standard products of OMI (Ozone Monitoring Instrument) sensor, have been used to asses the accuracy of all the implemented methods. Since the SVM method can distinguish dust storm over lands and oceans simultaneously, therefore the accuracy of SVM method is achieved better than the other applied approaches. As a conclusion, this paper shows that SVM can be a powerful tool for production of dust images with remarkable accuracy in comparison with AOT (Aerosol Optical Thickness) product of NASA.
    Keywords: Dust storm, Classification, MODIS, Decision Tree, SVM, ANN
  • Pages 145-156
    Tehran, capital of Iran, is located on few known (Mosha, North Tehran Fault and South and North Ray) and unknown faults which expose this mega city to huge earthquakes’ effects. In addition to considerable seismic hazard in Tehran the existence of old and non-standard buildings make the repercussions even worse. Determining locations and intensity of seismic vulnerability of a city is considered as a complicated disaster management problem. As, this problem generally depends on various criteria and expert’s opinions, one of the most important challenges concerned is the existence of uncertainty regarding inconsistency in expert’s view. Uncertainty in seismic vulnerability map would results biases in risk management which has multilateral effects on decision makings. Some multi-criteria evaluation methods have recently been proposed to handle some aspects of uncertainties in the process of producing the seismic vulnerability map for Tehran. Granular computing approach is proposed in this paper to overcome the limitation of the abovementioned existing algorithms. It can be regarded for learning classification rules by considering the two basic issues: concept formation (making granules) and concept relationships identification (relationship between granules). One of the most important features of this method with respect to previous studies is inference of more compatible rules having zero inconsistency extracted from existing training databases. Furthermore, in this approach, non-redundant covering rules will be extracted for consistent classification where one object maybe classified with two or more non-redundant rules. In this study the result of north Tehran fault hazard analysis is applied to the vulnerability assessment process and activation of other faults have been ignored. It is assumed that the northern fault of Tehran is activated and then the classification rules of seismic physical vulnerability are inducted from granular computing tree. A pilot area of Tehran Metropolitan Area located in the north of Iran was selected for the purpose of this study.
    Keywords: Granular computing, Uncertainty, Seismic vulnerability assessment, Granular tree
  • N. Mohamadi *, M. R. Malek Pages 157-166
    Existing location allocations approaches do not take into consider the changeability nature of the world. This happens, whereas the most location allocation problems face time changing parameters. The change of these parameters can be foreseen sometimes so they should be token into consider in location allocation by modeled approaches. This paper has formulated the location allocation problem of p-median type dynamically and proposed an approach for solving dynamic location allocation and resource allocation problems based on artificial intelligence. A sample problem of NP-Complete type has been propounded and solved in dynamic and static modes in order to evaluate performance of the proposed approach. The implementation results has verified performance of the proposed method and dynamic location allocation approaches in respect to static ones for solving location allocation problems using change of demand model in time.
    Keywords: Artificial intelligence, Location allocation of service centers, Resources allocation, Dynamic modeling, Median method
  • A. Zarea *, A. Mohammadzadeh, M. J. Valadanzoej Pages 167-186
    This paper introduces an approach to detect and 3D reconstructs buildings using aerial imagery and LiDAR data. This research consisted of three phases, building detection, 2D building outline reconstruction and 3D building reconstruction. In phase building detection, firstly off-terrain objects including trees and buildings are extracted from LiDAR data. Secondly Support Vector Machines (SVMs) Algorithm is employed to differentiate trees and buildings. Training data which are used in SVMs are choose in semi-automatic procedure. After eliminating trees, K-means clustering algorithm is used to separate buildings which are not in same elevation. Results are showing our building detection method was successful in detection of small and large buildings. Completeness, Correctness and Quality for building detection results respectively are 86.60%, 99.10% and 85.92%. In phase 2D building outline reconstruction, firstly, the building boundaries have been vectorized. Then produced boundaries are generalized and unnecessary line segments are removed. After generalization, a new approach is used to build orthogonal buildings. In this research, 3D building reconstruction is done in LOD2. For detection of roof structure of buildings, the parameters of plane that have been fitted to LiDAR points within each kernel is obtained. With considering these parameters as features of each building, ISO-Data clustering has been done. The results of this clustering represent the planar surfaces of each building. So, a plane is fitted to each class (planar surface) with least squares method. Then, within the boundaries of each building, roof patches which have similar plane parameters and are close together are merged. Plane parameters of integrated roof patches again are determined. Finally, 3D models of buildings have been reconstructed with intersection of planar surfaces and obtaining of vertex points of each building. Elevation and total RMS values of specified planes for roof structure of buildings respectively are 0.4 m and 0.9 m.
    Keywords: Building detection, 3D reconstruction, LiDAR, Support Vectors Machines (SVMs), Morphology Operation, planar surfaces
  • N. Hooshangi *, A.A. Alesheikh Pages 187-200
    Solar radiation is one of the most salient factors in determining the optimal locations of solar farms. It is the main input of geological, ecological, meteorological and hydrological models. In Iran, there are 63 stations which measures solar radiation; compared to the extent of the country, solar radiation monitoring network has very low densities. In the present study, in order to increase the network congestion and continuous mapping of solar radiation, synoptic meteorological stations’ data were used. Considering the high correlation between solar radiation and meteorological data (sunshine duration, maximum temperature and negatively high correlated sea pressure), such data was used to calculate solar radiation in synoptic stations by using Fuzzy Inference System (FIS), Artificial Neural Network (ANN) and Adaptive Neuro Fuzzy Inference Systems (ANFIS). The evaluation of the results was performed by RMSE, MAE and MBE to rank the methods. Our results revealed that Sugeno method accompanied by Fuzzy C-mean clustering has RMSE=28.07 w/m2 that lays the least errors amongst the others. With respect to ANN, Cub-clustering and Grid partition ANFIS, Sugeno method showed 18, 39% and 42% improvement. MAE and MBE also implied the ability of the Sugeno fuzzy method. Such a method is more flexible for modeling complex and nonlinear systems. The implementation of the methods in prediction of solar radiation revealed that Sugeno is easier and faster to executable. Estimated Solar radiation for 333 synoptic stations was interpolated by Ordinary Kriging to generate a continuous surface for the country. The generated solar radiation atlas is suitable to identify solar throw areas of our country as well as for engineering applications and energy planning. Radiation atlas showed that 32 percent of the country has solar radiation above 500w/m2 that is the amount of radiation required for solar farms.
    Keywords: Solar Radiation, Spatial Prediction, Artificial Neural Networks, Fuzzy Inference Systems, Adaptive Neuro adaptive Fuzzy inference system
  • M. Shaeri *, R. A. Abbaspour Pages 201-212
    A spatial trajectory is a record of moving object’s spatial changes through time and is modeled by a sequence of discrete points with spatio-temporal coordinates. Increasing number of moving objects and positioning technologies resulted in immense number of spatio-temporal data needing various analyses. Extracting similar trajectories is one of the crucial analyses in spatial trajectories. So far various distance functions have been proposed for measuring similarity where each one has addressed similarity from its own point of view and is suitable for particular data with special characteristics. Thus, functions effectiveness is not the same for all kind of data and applications and understanding capabilities and characteristics of functions is the prerequisite of choosing the suitable function. In this paper, a comparative experimental study is conducted on the effectiveness of seven widely used trajectory similarity measures which are the base of many other former proposed distance functions and their advantages and drawbacks are discussed.
    Keywords: Spatial trajectories, Distance functions, Similarity
  • M. Rajabi *, A. R. Amiri, Simkooei, J. Asgari, V. Nafisi, S. Kiaei Pages 213-224
    One important source of errors on GNSS signals is the ionospheric effect. This layer of the atmosphere is filled with charged particles. Ionospheric effects on the waves are dependent on the amount of TEC. This paper uses the least square harmonic estimation (LS-HE) that is one of the analytical methods in the frequency domain. We used the vertical TEC values obtained from GIM models with global cover provided by the JPL analysis center. We use 15 years of bihourly data gathered from the 152th day in 1998 to the first day of 2014. We first determine the important periodic signals by applying the univariate and multivariate harmonic estimate on the TEC time series. The multivariate analysis revealed the presence of daily periodic signal with its higher harmonics and annual period with its higher harmonics. We then calculate the spectral power of a number of identified signals in all available data range. The result indicate that the higher harmonics of the daily signal (tri and quad diurnal) show their maximum spectral values in the dip equator. This indicates that the earth's magnetic field is one of the cause, to these provide patterns.
    Keywords: Ionosphere, TEC, Spectral Analysis, LS, HE
  • S. M. Khazraei *, V. Nafisi, S. A. Monadjemi, J. Asgari, A. R. Amiri, Simkooei Pages 225-238
    Due to wide spread usage of the satellite positioning techniques especially GPS, we need to precisely determine geoid model in order to use GPS measurements for height determination, as an alternative of traditional leveling techniques in geodetic applications. Precise local geoid modelling using GPS/Leveling data, apart from the existing models such as geopotential models and gravimetric geoid models could be an interesting investigation topic. An important question is, ‘What accuracy level can be achieved using this approach?’ However precession of this modelling could be influenced by some issues such as data quality or modelling techniques. In this paper, we attempt to assess the implementation of modern learning-based computing techniques including artificial neural networks and adaptive network-based fuzzy inference systems compared with multivariate polynomial regression equations in GPS/Leveling Geoid modeling. This assessment carried out in a small and dense network of GPS/Leveling benchmarks in contrast with previous studies, located in shahin-shahr, Isfahan. And these high quality data make it possible to achieve an accuracy of better than 1 cm. The results show a few millimeter superiority of ANN and ANFIS derived geoid models in terms of root mean square error, as well as in terms of coefficient of determination. And RMSE=8cm, R2=0.9949 and RMSE=7cm, R2=0.9964 achieved for this models respectively. Therefore ANFIS derived geoid model provide the most accurate geoid heights in the study area.
    Keywords: Local Geoid, GPS, Leveling, Artificial Neural network (ANN), Adaptive Network, based Fuzzy Inference System (ANFIS)
  • A. Nourmohammad *, M. Saadatseresht Pages 239-252
    Today, various Unmanned Aerial Vehicles (UAV) Photogrammetry systems have been developed and utilized for close range aerial image acquisition and 3D topographic mapping. They have several advantages compared with classical manned aerial photogrammetry systems such as less cost, more accessibility, higher safety, shorter data acquisition process, and requires less skilled persons and specialized equipment. In this research a low-cost ultra-light UAV Photogrammetry system is used which equipped with a non-metric low-cost digital camera and a semi-automatic navigation system. Due to using these low cost components and general ultra-light UAV instability, some geometric and radiometric problems in thousands of small sized UAV aerial images are happen. The most important problems are (1) high tilt and rotation of vertical aerial images (2) Irregularity in image arrangement makes non-conventional standard overlap/side-lap coverage, (3) lower-quality images due to illumination changes, image motion and low signal-to-noise ratio, (4) high geometric and unstable image distortions come from non-metric off-the-shelf camera. In addition, since conventional photogrammetric software are designed and worked based on the characteristics of images taken from metric cameras mounted on manned aircraft, it is impossible to do automatic feature extraction and matching successfully on UAV images. These problems have caused to a big gap between imaging and aerial triangulation steps. The main goal of this research is dissolving the mentioned gap by automatic image processing of images were captured by ultra-light UAV and prepare input data to photogrammetric software for aerial triangulation. The results of this research show by eliminate this gap, relative high precision can be achieved from photogrammetric block bundle adjustment of these images. Also the results show that providing spatial products of these images such as Digital Terrain Model and Ortho-photo mosaic is possible.
    Keywords: Ultra, light UAV, SIFT, Epipolar geometry, Projective intersection, Unit quaternion, Block Bundle Adjustment
  • B. Bigdeli *, F. Samadzadegan Pages 253-286
    With recent technological advances in remote sensing sensors and systems, very high-dimensional hyper spectral data are available for a better discrimination among different complex land-cover classes. However, the large number of spectral bands, but limited availability of training samples makes the problem of Hughes phenomenon or ‘curse of dimensionality’ in these data. Moreover, these high numbers of bands are usually highly correlated and the information provided can contain several data redundancies. Because of these complexities of hyperspectral data, traditional classification strategies have often limited performance in classification of hyperspectral imagery. Referring to the limitation of single classifier in these situations, classifier ensemble systems may have better performance than single classifiers especially on hyperspectral data with this high level of complexities. This paper presents a new method for classification of hyperspectral data based on a band grouping strategy through a SVM ensemble system. Proposed method used a band grouping process based on a mutual information (MI) strategy to split data into few band groups. After band grouping step, the proposed algorithm aims at benefiting from the capabilities of SVM as classification method. So, proposed method applied SVM on each band groups that produced in previous step. Finally, this paper applied Naive Bayes (NB) as a novel and robust classifier fusion method for combining classifiers in classifier ensemble system. NB is a precise classifier fusion based on the concepts of Bayesian theory. Experiments are applied on two common hyperspectral data. Obtained results show that the classification accuracy is significantly improved by the proposed method in comparison with standard SVM on all bands of hyperspectral data. Also, these results confirm the high performance of band grouping strategy in contrast to using of standard SVM on all feature space.
    Keywords: Hyperspectral data, Support Vector Machine, Multiple Classifier System, Band Grouping