فهرست مطالب

نشریه علوم و فنون نقشه برداری
سال سوم شماره 4 (پیاپی 12، اردیبهشت 1393)

  • تاریخ انتشار: 1393/02/16
  • تعداد عناوین: 10
|
  • میررضا غفاری رزین*، بهزاد وثوقی صفحه 1
    یونوسفر لایه ای از جو زمین می باشد که از ارتفاع 80 کیلومتری تا ارتفاع بیش از 1000 کیلومتری زمین گسترش پیدا کرده است. این لایه از جو به دلیل خاصیت الکتریکی، اثرات بسیار مهم و اساسی بروی امواج عبوری از آن دارد. پس از برداشتن اثر SA از سیستم تعیین موقعیت جهانی GPS، تاخیر یونوسفری به عنوان مهمترین منبع خطا، در تعیین موقعیت و ناوبری توسط این سیستم محسوب می شود. بررسی و حذف این اثر مستلزم شناخت توزیع چگالی الکترونی در یونوسفر است. در این مقاله از یک مدل سه بعدی جهت شناخت ویژگی های این لایه استفاده شده است. برای انجام اینکار تغییرات افقی چگالی الکترونی توسط توابع هارمونیک کروی (SHF) و تغییرات عمودی آن بوسیله توابع متعامد تجربی (EOF) مدلسازی می شوند. به دلیل ماهیت خاص مدل مورد استفاده که نوعی از معادلات انتگرال فردهولم نوع اول می باشد، با یک مساله معکوس گسسته ناپایدار روبرو هسیتم. جهت حل ناپایداری مساله فوق از روش تیخونوف مرتبه صفرم استفاده شده است. پارامتر پایدارسازی با استفاده از مقایسه مابین چگالی الکترونی حاصل از مدل سه بعدی و چگالی الکترونی اندازه گیری شده در ایستگاه یونوسوند تهران تعیین شده است. با کمک داده های GPS شبکه ژئودینامیک کشور ایران در 3 فصل زمستان، بهار و تابستان آنالیز تغییرات زمانی و مکانی یونوسفر برای 30 روز از هر فصل انجام گرفته است. نتایج بدست آمده نشان دهنده تغییرات روزانه در چگالی الکترونی در طول یک روز به اندازه ele/cm3 1011×6 و نیز تغییراتی به اندازه ele/cm3 1011×9 در طول یک ماه مخصوصا در فصل زمستان می باشد.
    کلیدواژگان: یونوسفر، تغییرات فصلی یونوسفر، پایدارسازی، شبکه ژئودینامیک ایران، چگالی الکترونی
  • فرزام فتح الله زاده*، بهزاد وثوقی، مهدی رئوفیان نایینی صفحه 11
    در این مطالعه تغییرات پتانسیل و گرادیان جاذبه را برای زلزله 9.2 ریشتری سوماترای اندونزی در 26 دسامبر سال 2004 به کمک داده های ثقل سنجی جمع آوری شده توسط ماهواره گریس بدست می آوریم. گرادیان های جاذبه بدست آمده تغییرات توزیع جرم را در درون زمین به خوبی نشان می دهند. مطالعات پیشین نشان داده است که برای حذف خطای نواری مشاهدات گریس از فیلترها و الگوریتم های نرم کنندگی استفاده شده است. در این تحقیق کاربرد گرادیان های جاذبه را در حذف خطای نواری مشاهدات ماهواره گریس بررسی می کنیم و خواهیم دید که با محاسبه این گرادیان در جهت خطاهای نواری مشاهدات گریس توسط مولفه های و از تنسور گرادیان جاذبه از بین می روند در حالی که با محاسبه این گرادیان در جهت نوسانات در جهت شمال- جنوب توسط مولفه های و از تنسور گرادیان جاذبه تشدید می شوند. همچنین حداکثر و حداقل مقادیر تغییرات گرادیان جاذبه به ترتیب mE1.5 و mE1.2- در جهت بدست می آیند.
    کلیدواژگان: گرادیان جاذبه، زلزله سوماترا، ماهواره گریس، خطای نواری
  • یحیی جمور* صفحه 21
    در مشاهدات ترازیابی همیشه خطاهای سیستماتیک وجود دارد.این خطاها یکی از عوامل محدود کننده دقت در کارهای ترازیابی دقیق می باشد. بنابراین ضرورت بکارگیری روش های مختلف برای حذف یا تا حد امکان کاهش این خطاها امری بدیهی است. هدف اصلی از انجام این تحقیق یافتن یک راه حل مبتنی بر مدلسازی ریاضی رفتار اختلافات رفت و برگشت هر قطعه ترازیابی برای کاهش یا حذف برآیند خطا های سیستماتیک موثر بر مشاهدات ترازیابی است. در این پژوهش سعی شده است، بدون در نظر گرفتن داده های فیزیکی مورد نیاز برای تصحیح خطاهای سیستماتیک و تنها توجه به ضرورت تصادفی بودن خطاهای باقیمانده قبل از سرشکنی، مدلسازی ریاضی خطاهای سیستماتیک برای پنج لوپ از شبکه ترازیابی دقیق کشور انجام شود و با نتایج فیزیکی حاصل از مدلسازی مورد مقایسه قرار گیرند. آنچه از مقایسه نتایج به دست آمده است حاکی از آن است که نتایج سرشکنی اختلاف ارتفاعات خام (بدون هیچ نوع تصحیحی) با نتایج حاصل از سرشکنی اختلاف ارتفاعات تصحیح شده به روش فیزیکی (تصحیح انکسار) بسیار به هم نزدیک بوده و عملا تفاوت معنی داری بین آنها وجود ندارد.
    کلیدواژگان: ترازیابی دقیق، خطاهای سیستماتیک، مدلسازی ریاضی، تصحیحات داده های ترازیابی
  • رضا عرب شیبانی*، فرشاد حکیم پور صفحه 29
    به میزانی که حجم داده های تحت وب دارای محتوای مکانی افزایش می یابد نیاز به رویکردهایی که دارای توانایی مدیریت این حجم داده ها در شبکه وب باشند افزایش می یابد. گفتمان وب معنایی با تعریفی جدید و متفاوت از پایگاه های داده به منظور ذخیره و بازیابی داده ها، راه حلی برای مواجهه با چالش های ناهمگنی و گستردگی توزیع منابع اطلاعاتی است. از طرفی می توان گفت که افراد در فعالیت های روزمره خود با مفهوم و معنایی که برای هر مکان خاص قائلند سر و کار دارند. معیارهای گوناگون شناختی برای تعریف یک مکان باعث می شود که علاوه بر طبقه بندی، اطلاعات توصیفی بیشتری برای مدلسازی ویژگی های متمایزکننده(affordance) نقاط مورد نیاز باشد، درحالیکه که تعریف این اطلاعات توصیفی در یک اسکیمای خاص از مدل های رابطه ای امکان پذیر نیست. مدلسازی داده در پایگاه های داده گرافی و در قالب داده های مکانی- معنایی، تعریف و ذخیره داده های مرتبط با مدلسازی مکان بر اساس affordance را امکان پذیر می کند. در این تحقیق با مروری بر مفاهیم و فناوری های مرتبط با کارکردهای وب معنایی، نشان داده خواهد شد که چگونه می توان داده های مکانی را در قالب های معنایی تعریف و تفسیر کرد. همچنین سامانه اطلاعاتی طراحی و پیاده سازی شده در این تحقیق، از قالب داده های وب معنایی به منظور ذخیره و بازیابی داده های مکانی- معنایی affordance نقاط مورد توجه، استفاده خواهد کرد. جهت ارزیابی نتایج به دست آمده، اطلاعات بازگردانده شده توسط سامانه مکانی- معنایی با اطلاعات همسان در مدل های رابطه ای مقایسه خواهد شد و نتیجه مقایسه ها مورد بررسی و ارزیابی قرار خواهد گرفت
    کلیدواژگان: وب معنایی، نقاط مورد توجه، بازیابی و ذخیره، GeoSPARQL، مدلسازی، affordance
  • علی اصغر حیدری، رحیم علی عباسپور* صفحه 41
    امروزه با رخداد بلایای طبیعی، گردآوری بی درنگ اطلاعات مکانی و محیطی از طریق به کارگیری سکوهای پرنده بدون سرنشین (UAV) به عنوان سکوی حامل سنجنده های چندمنظوره، به امری ضروری تبدیل شده است. سکوهای پرنده بدون سرنشین با پوشش سامانمند و سریع نواحی پرخطر که دسترسی نیروهای امداد زمینی به آن ها ممکن نیست، نقش قابل توجه ای را در بهبود کیفیت ماموریت امداد و جستجوی مجروحین پس از وقوع مخاطرات طبیعی ایفا می کنند. از سوی دیگر، برنامه ریزی ماموریت UAV خود یکی از مراحل بنیادین جهت دستیابی به ناوبری خودکار UAV می باشد. در این زمینه، تعیین خطوط سیر بهینه با توجه به نیازهای ماموریت و شرایط محیطی یکی از مراحل ضروری در برنامه ریزی سکوی خودکار می باشد. در این پژوهش افزون بر بررسی نقش UAV در بهبود عملیات امداد و نجات در شرایط بحران، الگوریتم غذایابی باکتری بهبود داده شده و جهت حل مسئله برنامه ریزی خط سیر UAV پیاده سازی می شود. سپس، به منظور اعتبار سنجی کارکرد الگوریتم پیشنهادی با دیگر الگوریتم های پیاده سازی شده مقایسه می گردد. در پایان، نتایج شبیه سازی ماموریت جستجو و نجات با سکوی پرنده و دستاوردهای پژوهش بیان می شود.
    کلیدواژگان: برنامه ریزی، سکوهای پرنده بدون سرنشین، ناوبری خودکار، ماموریت امداد و نجات، الگوریتم غذایابی باکتری
  • قاسم جوادی*، محمد طالعی، میثم آقامحمدی صفحه 53
    در سال های اخیر، استفاده از دوچرخه های عمومی، به منظور مقابله با بکارگیری بیش از حد اتوموبیل، به یک الگوی برنامه یزی حمل و نقل شهری مهم در جهان تبدیل شده است. یکی از کلیدهای موفقیت در این طرح، مکان ایستگاه های دوچرخه و ارتباط آنها با معیارهای مختلف تقاضای سفر است. امروزه سامانه اطلاعات مکانی به دلیل توانایی انجام اجرای مدل ها و تحلیل های مکانی پیچیده، قابلیت بکارگیری در برنامه ریزی های حمل و نقل را داراست. این تحقیق، یک روش تصمیم گیری چند معیاره مبتنی بر GIS، به منظور برنامه ریزی مکانی ایستگاه های دوچرخه عمومی ارائه می دهد. در روش ارائه شده، شاخص های دسترسی پذیری، نزدیکی به تقاطع های مهم و پارکینگ های عمومی و همچنین فاصله بین ایستگاه های دوچرخه عمومی مورد توجه قرار گرفت. با توجه به عدم قطعیت در نظرات کارشناسی در خصوص برخی معیارها از منطق فازی برای مدلسازی آنها استفاده شد. روش پیشنهادی برای منطقه هفت شهر تهران انجام گردید. نتایج به دست آمده از مدل ارائه شده حاکی از توانایی و کارا بودن مدل فوق در برنامه ریزی مکانی ایستگاه های دوچرخه عمومی و همچنین تعیین میزان محدودیت ها و توانایی های هر نقطه از منطقه در رابطه با شاخص های مورد نظر، می باشد. نتایج به دست آمده می تواند به عنوان ابزاری مناسب جهت اخذ تصمیم های بهینه در اختیار تصمیم گیرندگان و برنامه ریزان حمل و نقل شهری قرار گیرد.
    کلیدواژگان: تصمیم گیری چند معیاره، برنامه ریزی حمل و نقل شهری، دوچرخه عمومی، GIS، منطق فازی
  • بهزاد واحدی طرقبه*، علی اصغر آل شیخ، سپهر هنرپرور صفحه 65
    با وجود مزایای فراوانی که سیستم های اطلاعات مکانی داوطلبانه دارند، کیفیت داده های این سیستم ها بزرگترین محدودیت آن و محل بحث و تحقیق بسیاری از محققان بوده و تا کنون مقالات گوناگونی در این باره نوشته شده است. اغلب تحقیقات صورت گرفته در زمینه اطلاعات مکانی مردم گستر به کیفیت بیرونی و گاهی هم کیفیت درونی این داده ها پرداخته اند و کیفیت عملی کمتر مورد توجه واقع شده است. در این تحقیق با استفاده از کمیت سنج های زبانی و عملگر تصمیم گیری چندمعیاره OWA روشی برای ارزیابی کیفیت عملی اطلاعات مکانی داوطلبانه ارائه می گردد. در روش ارائه شده برای محاسبه کیفیت عملی ابتدا می بایست کیفیت درونی و بیرونی داده های تولید شده توسط داوطلبان محاسبه شود. به منظور محاسبه کیفیت درونی و بیرونی برای هر کدام چند شاخص سطح متوسط و سطح پایین در نظر گرفته شده است که با اعمال عملگر OWA روی این شاخص ها مقدار کیفیت محاسبه می شود. برای ارزیابی روش پیشنهادی میزان فرسایش بنا های تاریخی شهر تهران انتخاب گردید. با توجه به نتایج به دست آمده در این مطالعه موردی، مشخص گردید که تاثیرگذاری کیفیت بیرونی روی کیفیت عملی بیشتر از کیفیت درونی است و همچنین تخصص کاربر روی کیفیت عملی داده های تولید شده توسط وی تاثیر به سزایی دارد.
    کلیدواژگان: سیستم های اطلاعات مکانی داوطلبانه، عملگر تصمیم گیری چندمعیاره OWA، کیفیت عملی اطلاعات مکانی، کمیت سنج های زبانی
  • سید باقر فاطمی*، محمدرضا مباشری، علی اکبر آبکار صفحه 77
    تا کنون برای بهبود دقت روش های خوشه بندی پیشنهادات متعددی ارایه شده است که از آن جمله می توان به استفاده از روش های نیمه نظارت شده، ترکیب خوشه بندی ها و خوشه بندی دوگانه اشاره نمود. یکی از مهمترین رویکردها در این زمینه استفاده از اطلاعات مکانی تصویر می باشد. در این تحقیق چهار روش خوشه بندی که از اطلاعات مکانی سطح تصویر استفاده می-کنند با یکدیگر مقایسه گردید. این چهار روش شامل اعمال فیلتر اکثریت، استفاده از داده های بافت، خوشه بندی مبتنی بر شیء، و استفاده از میدان های تصادفی مارکوف می باشند که در کنار روش خوشه بندی k-means ساده روی چهار نمونه تصویر آزمایش شدند. استفاده از داده های بافت برای تصاویر واقعی تا 10.8 درصد و روش میدان های تصادفی مارکوف برای تصاویر شبیه سازی شده با 22.8 درصد بیشترین افزایش دقت را نسبت به خوشه بندی k-means نشان داده اند. نتایج این پژوهش نشان می دهند که استفاده از خوشه بندی k-means در شکل ساده اش به هیچ وجه همه توانایی اطلاعاتی تصویر را به کار نمی گیرد و نتایج و انتظارات کاربر را برآورده نخواهد کرد و استفاده از اطلاعات همسایگی یکی از بهترین راهکارهای افزایش دقت می باشد.
    کلیدواژگان: اطلاعات مکانی، تصویر ماهواره ای، خوشه بندی، سنجش ازدور
  • محمد زین الدینی، سعید صادقیان*، علی سرکارگر اردکانی صفحه 91
    تصاویر رقومی هوایی پهپاد دارای کاربردهای متنوعی در استخراج اطلاعات مکانی، تهیه و بازنگری نقشه می باشد. هدف تحقیق ارزیابی روش های تصحیح هندسی تصاویر رقومی هوایی پهپاد شامل: مدلهای فیزیکی، پیاده سازی فرآیند کامل فتوگرامتری هوایی از مرحله کالیبراسیون آزمایشگاهی دوربین تا مثلث بندی و سرشکنی در چندین مرحله، تهیه ارتو فتو و نقشه های بزرگ مقیاس، همچنین پیاده سازی مدلهای تجربی (چند جمله های دوبعدی، تبدیل افاین، درجه دوم و سوم، توابع کسری، تبدیل پروژکتو، درجه اول) و استفاده از مدلسازی هوش مصنوعی و در نهایت تعیین موقعیت دقیق عوارض با استفاده از نقشه تهیه شده می باشد. بهترین نتایج پیاده سازی مدلهای فیزیکی به ترتیب برای نقاط مسطحاتی (x (2105/0متر، (y (2856/0 متر و همچنین بهترین نتایج حاصل از مدلسازی تجربی با توابع چند جمله دو بعدی درجه سوم برای میزان باقیمانده های نقاط کنترل 2 پیکسل (حدود 24سانتی متر) بدست آمد.
    کلیدواژگان: تصاویر پهپاد، مدل های فیزیکی، مدل های تجربی، هوش مصنوعی، نقشه
  • بلال هژبری*، فرهاد صمدزادگان، حسین عارفی صفحه 103
    امروزه مدل های سه بعدی شهری به عنوان یکی از بنیادی ترین اطلاعات مورد نیاز در بسیاری از کاربردهای مهندسی نظیر مدیریت شهری، مدیریت و طراحی جاده ها و بزرگراه ها و عملیات امداد می باشند. در این راستا تلاش گسترده ای در راستای بهینه سازی در روند تولید اطلاعات از سطح زمین و پردازش آن ها انجام پذیرفته است. در این تحقیق برای بازسازی مدل ساختمان یک روش بر مبنای تلفیق اطلاعات ابر نقطه لیدار و تصویر ارائه شده است. در روش پیشنهادی ابتدا با استفاده از نقشه دو بعدی موجود، نقاط متعلق به هر ساختمان از ابر نقطه کلی لیدار استخراج می گردد و ساختمان های مورد نظر در دو گروه کلی ساختمان های با سقف شیب دار و مسطح گروه بندی می شوند. سپس الگوریتم خوشه بندی انتقال میانگین بر روی نقاط سقفی ساختمان های مختلف اعمال می گردد و در نهایت با جداسازی صفحات موازی و هم صفحه مرحله بخش بندی پایان می یابد. در مرحله بعدی با استفاده از ماتریس همجواری هر ساختمان، بخش های مجاور با یکدیگر تقاطع داده می شوند و مختصات رئوس داخلی محاسبه می گردد. از طرف دیگر در فضای تصویر، محدوده مربوط به هر ساختمان جدا می گردد و الگوریتم بخش بندی انتقال میانگین بر روی آن قسمت اعمال می گردد. سپس خطوط مربوط به لبه های سقف با استفاده از الگوریتم تبدیل هاف استخراج می گردند و نقاط حاصل از تقاطع این خطوط به فضای زمین انتقال می یابند. در مرحله پایانی با ترکیب نقاط ساختاری حاصل از تقاطع صفحات مجاور و نقاط انتقال یافته از فضای تصویر، عملیات بازسازی انجام می شود. در این تحقیق برای ارزیابی کارایی روش ارائه شده، ساختمان های مختلف با شکل و سطوح مختلف پیچیدگی مختلف انتخاب شدند و نتایج روش پیشنهادی برای بازسازی مدل سه بعدی مورد ارزیابی قرار گرفت. نتایج به دست آمده نشان دهنده کارایی قابل قبول روش ارائه شده در مواجه با ساختمان های مختلف می باشد، به طوری که دقت مسطحاتی در بازسازی مدل های سه بعدی در حد 0.4 متر به دست آمده است.
    کلیدواژگان: بازسازی، مدل سه بعدی، بخش بندی، لیدار، تصویر هوایی، انتقال میانگین
|
  • M. R. Ghaffari Razin*, B. Voosoghi Page 1
    The ionosphere is the part of the atmosphere in which the number of free electrons is so high that it significantly affects the propagation of radio waves. Since the deactivation of SA, the accuracy of the differential positioning with GPS is mostly dominated by the refraction delay of the GPS carrier waves in Ionosphere. To improve the accuracy of real time positions, it is customary to use the existing models in order to account for various sources of errors, including the effect of Ionosphere. Application of the single layer model, in which the electron content of Ionosphere is assumed to be condensed on a thin shell at a specific height, is a well established technique to account for the ionosphere delay.In contrary to this model, multi-layer modeling can provide three-dimensional information on the spatial distribution of the electrons in atmosphere. In this method, spherical harmonics and empirical orthogonal functions are the base functions in use for modeling the horizontal and the vertical content of the electron density. This is at the cost of using regularization techniques for solving the corresponding problem. Therefore, the developed model should be calibrated, i.e. the corresponding regularization parameter should be chosen, based on the a-priori information of the electron content. In this study, a 3D-modeling of the electron content has been constructed using the GPS measurements over Iran. The Ionosonde Data in the Tehran station (φ=50.64, λ=35.87) have been used for choosing an optimum value for the regularization parameter. To apply the method for constructing a 3D-image of the electron density, GPS measurements of the Iranian Permanent GPS Network (at 3-day in 2007) has been used. The instability ofsolution has been numerically analyzed andthe Tikhonov method has been used for regularizing the solution. To come up with an optimum regularization parameter, the relative error in the Electron density profile computed from Ionosonde measurements and their 3D model are minimized. The modeling region is between 24 to 40 N and 44 to 64 W. The result of 3D-Model has been compared to that of the International Reference Ionosphere model 2007 (IRI-2007).The result shows that the electron density has 6×1011ele/cm3 diurnal variation and 9 × 1011ele/cm3 seasonal variations especially in winter months. This method could recover 66% to 99% of the ionosphere electron density.
    Keywords: Total Electron Contents, Ionosonde, GPS, IRI 2007, regularization parameter
  • F. Fatolazadeh*, B. Voosoghi, M. R. Naeeni Page 11
    In this study we will review potential and gravity gradient changes due to Sumatra’s 9.2-magnitude earthquake on 26th Dec 2004 using data collected from GRACE Satellite. The gravity gradients clearly show the variations of mass distributions in the ground. The previous studies have shown that filters and softening algorithms were used to elimination of stripe error of GRACE observations. In this study we find the application of gravity gradient in removing stripe error of observation of GRACE satellite and we see that with these gradients in direction, gradient tensor components such as and cause eliminate GRACE observations strip errors however with these gradients in direction, gradient tensor components such as and would cause fluctuations to intensify in northsouth direction. Also we find the maximum and minimum value of gravity gradient changes (1.5mE and -1.2mE) will be earned in direction.
    Keywords: Gravity gradient, Sumatra earthquake, GRACE mission, Co, seismic gravity variations, Strip errors
  • Y. Djamour* Page 21
    There are several sources of systematic errors which affect the precise leveling observations and cause limitations to obtain high quality measurements. Some of these sources are refraction effects, rod scale error, vertical movement of instrument, temperature effect on rods and level, non-vertically of rods, bench mark movements. So far, many efforts have been carried out by different people to eliminate or reduce significantly the effects of systematic errors in leveling observations. These investigations mainly focus, especially in Iran, on physical modeling of atmospheric refraction and leveling rod expansion during the measurements. Based on the developed models of systematic errors, National Cartographic Center of Iran (NCC) uses the relative thermometer sensors along the precise leveling rods simultaneous with height difference observations to better model atmospheric refraction as the most important source of the systematic errors. In fact the relative thermometer sensors could be a great help to determine the vertical temperature gradient along the leveling rods. Obviously these auxiliary data imply more expenses to the NCC. In spite of all these tries, the precise leveling observations are not yet free of systematic errors due to atmospheric refraction, rod scale error and other unknown resources of errors. In this research, we try to run a new and simple method based on mathematical modeling of systematic errors resultant. The basic of this method is the expectation of errors must be zero, as a fundamental condition before adjusting the observations. In absence of any systematic error in precise leveling observations, we can see the forward-backward discrepancies along a leveling line vary around zero as it is expected. But in reality we do not have such a case and see an important accumulated height differences when we go far from the initial leveling bench mark in leveling lines. In fact we confront a trend analysis problem and should try to estimate a mathematical model to the trend by using approximation theory. Supposing the best fitted mathematical model is representative of the systematic errors resultant for each leveling line, we remove it from the corresponding height difference observations as a mathematical correction to the measurements. After obtaining the corrected observations, based on the mathematical model, we calculated a new series of height differences as corrected observations and put them in adjustment process. Finally we did a comparison between the results from this investigation (mathematical method) and the results from the current method (physical model). The results of the comparison show that there is not a significant difference between raw heights (without any corrections) and physical corrected heights (after physical corrections). This means the refraction model used in NCC is not efficient and it should to find a better model to remove systematic errors in leveling observations. The results as well as show the mathematical model is an alternative way to reduce systematic errors while there is no any available physical data.
    Keywords: Precise Levelling, Systematic Error, physical model, mathematical model
  • R. Arabsheibani*, F. Hakimpour Page 29
    Rapid expansion of web data containing spatial information requires new approaches which are capable of huge data handling. Semantic web paradigm offers appealing solutions for heterogeneous and sporadic data sets by setting new and different definitions of Data Base Management Systems (DBMS). On the other hand, due to various understanding of place among different individuals, there are many criteria for cognition of place and place categories, so these different criteria lead to more distinctive annotations (so-called affordance) for Points Of Interest (POI) modeling. The design of specific schemas for these types of POI’s affordances is heinous in relational DBMS while spatial semantic modeling through graph DBMS expedites deployment of affordance-based storage and retrieval frameworks. In this study, available specifications and technologies related to spatial semantic functionalities are addressed and the current state of spatial semantic data formatting and interpretation is presented. The designed information system utilizes semantic web specifications to store and retrieve affordance-based POI’s information and a sample data set is used for applicability of the system. In order to evaluate achieved results, retrieved data by spatial semantic queries are compared to similar information in relational data bases, therefore spatial data loading in GDBMSs and RDBMSs are compared and results are analyzed.
    Keywords: semantic web, storage, retrieval, GeoSPARQL, affordance, Point Of Interest
  • A. A. Heidari, R. A. Abbaspour* Page 41
    Nowadays, unmanned aerial vehicles (UAV), as the mobile multi-sensor platforms, are a necessary instrument for immediately spatial information gathering after occurrence of natural hazards. UAVs have a substantial role in improvement of search and rescue missions during natural hazards with fast and systematic monitoring of dangerous areas those are not accessible to relief workers. On the other hand, UAV mission planning is a fundamental stage to achieve the autonomous navigation. In this domain, computing optimal trajectories considering mission requirements and environmental conditions is a required step in path planning of autonomous UAVs. In this paper, after analyzing the role of UAV in upgrading the search and rescue missions, an improved bacterial foraging algorithm is proposed and implemented for UAV path planning. For performance evaluations, the algorithm is compared with other robust methods. Finally, results of UAV search and rescue mission simulations and research outcomes are presented.
    Keywords: Planning, UAV, Autonomous Navigation, Search, Rescue Mission, Bacterial Foraging Algorithm
  • Gh. Javadi*, M. Taleai, M. Aghamohammadi Page 53
    In recent years, in order to deal with excessive utilization of cars, the use of public bicycles has become as an important urban transport approach. To tackle with this, the place of bike stations and its relation with different travel demands are major keys. Geographic Information System (GIS), due to the ability to perform complex spatial analyses is used vastly in urban transportation planning. In this research, a GIS based multi-criteria decision analysis approach is utilized for spatial planning of public bicycle stations. The proximity to the road junctions and accessibility to public parking as well as distance from existent public bike stations were taken as evaluation criteria. To model uncertainty of expert opinions regarding some criteria, fuzzy logic model was used. The proposed method was tested in 7th region of Tehran, Iran. The results approved that the proposed method is robust to efficient spatial planning of public bicycle stations and determining the obstacles and capabilities of various areas in the case study in relation to the considered evaluation criteria. The proposed method can be used as a useful tool for nonmotorized urban transport planning.
    Keywords: Multi, criteria decision analysis, urban transport planning, public bicycles, GIS, fuzzy logic
  • B. Vahedi*, A. A. Alesheikh, S. Honarparvar Page 65
    In spite of huge advantages, Volunteered Geographic Information (VGI) still lacks a mechanism for quality control. As such, the quality of this kind of data is believed to be the main limitation in its use. Many scientists have worked on this issue so far, but the majority of the researches have focused on the internal and external quality of VGI. Pragmatic quality has usually been ignored, despite its significance. This paper proposes a method for assessing pragmatic quality of volunteered geographic information based on linguistic quantifiers and OWA operator. In this method, to assess the pragmatic quality, first internal and external quality of volunteered data should be assessed. In order to evaluate internal and external quality a few mid-level and low-level indicators are defined for each and by applying OWA on these indicators the value of quality is computed. As an example, this method is used to assess pragmatic quality of volunteered data gathered about the vandalism of historic monuments of Tehran, Iran. The results of this research showed that internal quality has a greater impact on pragmatic quality than external quality and that the expertise of the volunteer has a remarkable impact on the pragmatic quality of data he or she has produced.
    Keywords: volunteered geographic information, ordered weighted averaging, pragmatic quality of spatial data, linguistic quantifiers
  • S. B. Fatemi*, M. R. Mobasheri, A. A. Abkar Page 77
    In order to enhance the accuracy of the image clustering, many clustering algorithms such as semi-supervised clustering, clustering ensembles and Coclustering have so far been proposed where the most effective strategy is when spatial context in clustering is considered. In this study, four clustering methods in which the spatial neighborhoodinformation is used are investigated. Theseinclude: using texture information, object based clustering, Markov random field clustering and applying majority filter onthe clustering results. These four methodsare tested on the two synthetic and two real high resolution satellite images. The results show that using texture informationin clustering can enhance the overall accuracy of the clustering of the real images up to 10.8% relative to the simplek-means clustering. Markov random field clustering of the synthetic images shows 22.8% improvement in overall accuracy.The results show that using spatial context can enhance the overall accuracy of the satellite image clustering.
    Keywords: Clustering, Remote Sensing, Satellite Image, Spatial Context
  • Z. Mohammad, S. Sadeghian*, A. Ardekani Page 91
    UAV aerial digital images have many applications in spatial information extraction, map revision and mapping. The purpose of geometric correction methods for evaluating research UAV aerial digital images include: rigorous models, the implementation of the whole process of photogrammetry aerial camera calibration step to triangulation and adjustment in several stages, the preparation of largescale ortho photo blueprints to, including the models to implement, the non-rigours models (the two-dimensional polynomial transform, Affine, second and third degree, fraction functions, convert, primarily)and the use of artificial intelligence and computer modeling to determine the exact position of the side effects of using a map is provided. The best results of the implementation of the rigorous modeling in order for the Ms thaty x (0.2105m), y (0.2856m) and the best results of the nonrigorous modeling with multiple functions, including two-dimensional third- rate residuals of the control points 2 pixels (about 24 cm m), respectively.
    Keywords: UAV images, rigorous model, non, rigours model, artificial intelligence, map
  • B. Hojebri*, F. Samadzadegan, H. Arefi Page 103
    Today, 3D models of urban as one of the most important information are needed in many engineering applications such as urban planning, virtual tourism, navigation and emergency response. In recent years, by introducing the LiDAR system and using the 3D geo-referenced data, different methods have been proposed for 3D building modeling. Due to direct accessibility of 3D coordinate of LiDAR points, planar patch’s mathematical equations of building roofs could be determined accurately. However, extracting the edges and boundary of buildings with high accuracy from LiDAR points is a difficult task and will not be always precise. In new aerial laser scanning systems, in addition to using laser to adopt 3D point’s cloud of surface features, equipped by high resolutions small format RGB camera. So besides spatial data of features, RGB and spectral information are also available. In this research a method based on fusion of LiDAR point cloud and aerial image data sources has been proposed. In this study, firstly by using 2D plane (building footprint), points located inside polygon of each building are extracted from the overall scatter, individually. In the next step, the mean shift clustering algorithm applied to the points of different buildings in the feature space. Finally the segmentation stage ended with the separation of parallel and coplanar segments. Then using the adjacency matrix, adjacent segments are intersected and inner vertices are determined. In the other space, the region of any building cropped in the image space and the mean shift algorithm applied to it. Then, the lines of roof’s outline edge extracted bythe Hough transform algorithm and the points obtained from the intersection ofthese lines transformed to the ground space. Finally, by integration of structuralpoints of intersected adjacent facets and the transformed points from image space, reconstruction performed. In order to evaluate the efficiency of proposed method, buildings with different shapes and different level of complexity selected and the results of the 3D model reconstruction evaluated. The results showed credible efficiency of method for different buildings.
    Keywords: 3D Model, Reconstruction, LiDAR, Image, Segmentation, Mean Shift