فهرست مطالب

نشریه علوم و فنون نقشه برداری
سال دهم شماره 4 (پیاپی 40، بهار 1400)

  • تاریخ انتشار: 1400/03/28
  • تعداد عناوین: 14
|
  • حسین بهادری زاده*، محمدرضا ملک صفحات 1-16

    امروزه سامانه های اطلاعات مکانی مردم گستر رویکردی نوآورانه، سریع و کم هزینه برای جمع آوری اطلاعات فراهم کرده است. یکی از مشکلات استفاده از این رویکرد، ناهمگونی معنایی داده ها است. یکی از روش های نوین و علمی مدلسازی مورد استفاده با رویکرد حل مشکلات مربوط به ناهمگونی معنایی داده ها، هستارشناسی1 [1] است. اما استفاده از هستارشناسی برای جمع آوری اطلاعات در سامانه های مردم گستر دارای چالش هایی اساسی است. با توجه به اینکه هستارشناسی برآمده از منابع تخصصی و روالی فنی است، در نتیجه استفاده از آن نیازمند ابزار و اطلاعات تخصصی است و خروجی آن برای افراد متخصص و کارشناسان فن قابل استفاده خواهد بود، در حالیکه اطلاعات مکانی مردم گستر توسط افرادی جمع آوری می شوند که نوعا اطلاعات تخصصی نداشته و عاری از ابزار تخصصی هستند. بنابراین در تحقیق حاضر راهکاری ارایه شده تا برای جلوگیری از ایجاد ناهمگونی معنایی، مدل هستارشناسی را برای جمع آوری اطلاعات در سامانه های اطلاعات مکانی مردم گستر بگونه ای بکار ببریم که نیازی به داوطلبان آگاه و استفاده از ابزار خاص نباشد. در این راهکار پس از جمع آوری اطلاعات و توسعه ی مدل هستارشناسی اطلاعات در زمینه ی تخصصی مورد نظر، به کمک کلاس ها، زیرکلاس ها، روابط و ویژگی های موجود در مدل هستارشناسی، یک مدل مفهومی قابل فهم برای عموم در سه سطح جزییات [2] ایجاد می کنیم. سپس این مدل مفهومی را با استفاده از یک جدول مراجعه[3]، به مدل هستار شناسی مرتبط می کنیم. با این کار داوطلبان بر اساس مدل مفهومی اطلاعات خود را در سامانه ی اطلاعات مکانی مردم گستر وارد می کنند و نتیجه از مدل هستار شناسی به عنوان خروجی در اختیار تصمیم گیران قرار خواهد گرفت. در نهایت با مطالعه موردی منابع آب های سطحی، مدل مفهومی از منظر سادگی و عدم ابهام داوطلبان و عدم نیاز به اطلاعات تخصصی برای استفاده از آن، ارزیابی شد. با توجه به نتایج، می توان گفت 83 درصد از مدل مفهومی بدون ابهام بوده و بدون آموزش برای کاربران قابل فهم است. همچنین نتایج خروجی از مدل هستارشناسی از منظر کارایی برای تصمیم گیری ارزیابی شد که نتایج، نشان دهنده ی تناسب 88 درصد از اطلاعات خروجی از مدل هستارشناسی برای تصمیم گیری است. بنابراین نتایج ارزیابی مدل مفهومی و مدل هستارشناسی، کارا بودن آن ها برای هدف مورد نظر را نشان می دهد.

    کلیدواژگان: اطلاعات مکانی مردم گستر، ناهمگونی معنایی، مدل هستارشناسی، مدل مفهومی، جدول مراجعه
  • یاسر ابراهیمیان قاجاری* صفحات 17-33

    با توجه به اینکه زلزله از رایج ترین بحران های طبیعی در سراسر دنیا به ویژه ایران می باشد، تاکنون تحقیقات بسیار زیادی در زمینه ارزیابی آسیب پذیری ساختمان ها در مقابل زلزله صورت پذیرفته است. مشکل اساسی در مواجه با زلزله عدم آمادگی کامل در مقابله با آن می باشد که یکی از راهکارهای اساسی ایجاد این آمادگی، ارزیابی و آگاهی از مقاومت آن ها در مقابل زلزله در سناریوها و شرایط مختلف ریسک می باشد. در این تحقیق با استفاده از نظرات کارشناسان زمین شناسی، سازه، زلزله، شهرسازی، پدافند غیرعامل و معماری 8 معیار آسیب پذیری استخراج شد و متناسب با هر یک نقشه های معیار فازی تولید شد. همچنین از تکنیک تحلیل سلسله مراتبی فازی برای وزندهی معیارها و برای ترکیب نقشه های معیار از عملگر ترکیب خطی وزندار فازی استفاده شد. برای غیرفازی سازی نقشه های آسیب پذیری فازی و تولید نقشه آسیب پذیری در شرایط مختلف ریسک از عملگر میانگین وزنی مرتب شده (OWA) استفاده شد. با تحلیل نتایج ارزیابی لرزه ای ساختمان های منطقه 6 تهران به عنوان مطالعه موردی در این تحقیق، این نتیجه حاصل شد که در خوش بینانه ترین سناریو 39 درصد ساختمان ها از آسیب پذیری کم و در بدبینانه ترین سناریو 49 درصد ساختمان ها از آسیب پذیری بالایی برخوردارند. برای ارزیابی مدل از تکنیک تحلیل حساسیت استفاده شد که نتایج حاصل از آن حاکی از ثبات قابل قبول نتایج مدل در سناریوهای مختلف و به عبارتی قابلیت اطمینان بالای نتایج مدل می باشد.

    کلیدواژگان: ارزیابی لرزه ای، سامانه های اطلاعات مکانی (GIS)، منطقه 6 تهران، تحلیل سلسله مراتبی فازی، عملگر میانگین وزنی مرتب شده (OWA)، تحلیل حساسیت
  • حسین اعتمادفرد، وحید صادقی*، نعمه عبدالعباس الدیراوی، روزبه شاد صفحات 35-48

    از جمله مسایل مهمی که در مدیریت شهری باید به آن توجه داشت، مسئله مکان یابی پارک شهری است. پارک های شهری به عنوان یکی از مهم ترین فضاهای عمومی-خدماتی شهر، نقش زیادی در ارتقای شرایط اجتماعی، فرهنگی، اقتصادی و زیست محیطی نواحی شهری دارند. برای دست یابی به یک پارک عمومی موفق، اصلی ترین عامل، دسترسی و پیوند مناسب بین ویژگی های مختلف ساختار شهری است. بنابراین شناسایی معیارهای تاثیرگذار و استفاده از ابزارهای مناسب برای به کارگیری و تغییر آن ها به منظور مکان یابی بهتر پارک ها ضروری است. هدف این مقاله استفاده از سیستم های اطلاعات مکانی و الگوریتم ژنتیک به منظور مکان یابی پارک های شهری در شهر سماوا، کشور عراق است. بدین منظور توابع هدف شامل؛ حداقل کردن فاصله مسیر جابه جایی جمعیت و توزیع همگن افراد مناسب با ظرفیت پناهگاه ها در نظر گرفته شده اند. بر اساس معیارهای لحاظ شده شامل؛ کاربری اراضی، فاصله از شبکه حمل و نقل شهری، فاصله از رودخانه ها، تراکم جمعیتی و فاصله از نویزها (کارخانجات و غیره)، چهار منطقه مناسب برای احداث پارک در شهر سماوا تعیین شدند. با بررسی ویژگی های مناطق تعیین شده برای احداث پارک، قابلیت بالای الگوریتم ژنتیک در این کاربرد به اثبات رسید.

    کلیدواژگان: مکان یابی، پارک شهری، سیستم های اطلاعات مکانی (GIS)، بهینه سازی، الگوریتم ژنتیک
  • احسان نکوزاده چهارمحالی* صفحات 49-56

    در مباحث مربوط به تیوری تقریب، برای تقریب زدن یک تابع پیچیده با استفاده از یک چندجمله ای، از درون یابی استفاده می شود. برای به دست آوردن ضابطه ی چندجمله ای مورد نظر از روش های مختلفی می توان استفاده کرد. یکی از روش های مرسوم در محاسبه ی چندجمله های درون یاب، روش درون یابی لاگرانژ است. به علاوه در این نوع مسایل نحوه ی توزیع نقاط گرهی یکی از عوامل تاثیرگذار بر دقت درون یابی است؛ به عنوان مثال اگر برای تقریب زدن یک تابع با استفاده از چندجمله ای ها، از نقاط گرهی هم فاصله استفاده شود، دقت درون یابی در ابتدا و انتهای بازه ی نمونه برداری مطلوب نخواهدبود. برای غلبه بر این مشکل باید نحوه ی توزیع نقاط گرهی به گونه ای باشد که در ابتدا و انتهای بازه ی درون یابی نسبت به مرکز بازه از تراکم بیشتری برخوردار باشند. یک نمونه از مجموعه نقاطی با این شرایط، مجموعه ی ریشه های چندجمله ای های چبیشف هستند که به نقاط گرهی چبیشف معروف اند. با استفاده از این نقاط به عنوان نقاط گرهی، دامنه ی نوسان های چندجمله ای در دو طرف بازه ی درون یابی بسیار کوچک خواهدبود که این مساله موجب افزایش دقت درون یابی می شود. با توجه به کاربردهای ذکرشده برای استفاده از نقاط چبیشف در این نوع مسایل درون یابی، در این مقاله یک رابطه ی بازگشتی برای محاسبه ی توابع پایه ی لاگرانژ با استفاده از این نقاط ارایه می شود. با استفاده از این روش تعداد عملگرهای محاسباتی مورد نیاز جهت به دست آوردن توابع پایه ی لاگرانژ، تا حد قابل توجهی کاهش می یابد. از این رو انتظار می رود که با به کارگیری این روش ، سرعت انجام محاسبات در فرآیند درون یابی افزایش یابد. برای بررسی این مساله در ادامه ی مقاله، توابع پایه ی لاگرانژ در یک مساله ی درون یابی با استفاده از هر دو روش محاسبه شدند. پس از محاسبه ی این توابع برای تمام اعداد صحیح در بازه ی]1000,1[و برای چندجمله ای های از درجه ی 1 تا 10، مشخص شد که استفاده از روش بازگشتی در محاسبات، تا چند برابر سریع تر از روش معمولی است؛ به گونه ای که برای چندجمله ای درجه ی 1 روش بازگشتی 3/1 برابر سریع تر از روش معمولی بوده است. با افزایش درجه ی چندجمله ای این اختلاف افزایش یافته و برای چندجمله ای درجه ی 10 روش بازگشتی تا 3 برابر سریع تر از الگوریتم معمولی عمل کرده است؛ بنابراین استفاده از روش ارایه شده به خصوص در مواردی که از چندجمله ای های با درجات بالا برای درون یابی استفاده می شود، کاملا توجیه پذیر است.

    کلیدواژگان: تئوری تقریب، درون یابی لاگرانژ، محاسبه ی بازگشتی توابع پایه ی لاگرانژ، نقاط گرهی چبیشف، نقاط گرهی هم فاصله
  • سیروس هاشمی دره بادامی، مرتضی امیدی پور، محمدرضا جلوخانی نیارکی*، سمیه محمودی صفحات 57-71

    وقوع بلایای طبیعی مختلف مانند سیل، زلزله و... جز جدایی ناپذیر زندگی انسان ها در تمام نقاط جهان و ادوار زمان می باشد. برخی از کشورها مانند ایران به دلیل واقع شدن در موقعیت جغرافیایی و شرایط اقلیمی خاص، بیشتر مستعد بروز این حوادث می باشند. مدیریت بحران در هنگام وقوع این بلایا امری مهم و قابل توجه است که می تواند خسارات جانی، مالی و روانی را کاهش داده و مانع از تحمیل هزینه های گزاف به کشور شود. توزیع صحیح و عادلانه ی کمک های امدادی یکی از وجوه مهم در مدیریت بحران است. توزیع سنتی و غیرسیستمی کمک ها به دلیل نبود اطلاعات دقیق از موقعیت مناطق آسیب دیده و نوع نیازهای مردم در آنجا، ناهماهنگی بین نهادهای مختلف در توزیع کمک ها و عدم آگاهی از نوع و میزان کمک های تخصیص یافته توسط گروه های مختلف، سبب بروز مشکلاتی از قبیل توزیع ناعادلانه ی کمک ها به صورت انباشت و هدررفت بعضی اقلام در برخی نواحی و نایاب و گران شدن بعضی دیگر از اقلام در نواحی دیگر می شود. در پژوهش حاضر، یک سیستم تصمیم گیری مکانی مبتنی بر اطلاعات جغرافیایی داوطلبانه به منظور توزیع صحیح و عادلانه ی کمک های امدادی در هنگام وقوع بلایای طبیعی ارایه و پیاده سازی شده است که از نیازها و وظایف عوامل دست اندرکار پشتیبانی می کند. چارچوب پیشنهادی شامل دو فاز اصلی می باشد. در فاز اول، داده های مربوط به مناطق آسیب دیده و نیازهای آنها توسط سه گروه کاربران در بستر اطلاعات جغرافیایی داوطلبانه جمع آوری می گردد. این داده ها شامل داده های مربوط به موقعیت مکانی و نیازهای نواحی آسیب دیده می باشد. پس از جمع آوری حجم عظیمی از داده ها، در فاز دوم با کمک ابزارهای تحلیل تصمیم گیری چندمعیاره، مناطق آسیب دیده از نظر نیاز به کمک ها و اقلام اولویت بندی می شوند و مدیریت و نظارت بر فرآیند توزیع اقلام و تخصیص کمک ها به مناطق مختلف آسیب دیده، صورت می گیرد. تسریع در شناسایی مناطق آسیب دیده، توزیع به موقع و هدفمند کمک ها به نحوی که متناسب با نوع و میزان نیازها باشد، مشارکت موثر مردم آسیب دیده و امدادگران، جلوگیری از هدررفت کمک ها و سوء استفاده های احتمالی و صرفه جویی در وقت و هزینه، از مزایای بکارگیری سیستم پیشنهادی می باشد.

    کلیدواژگان: مدیریت بحران، GIS، اطلاعات جغرافیایی داوطلبانه، سامانه ی پشتیبان تصمیم گیری مکانی
  • یونس نعیمی*، بهزاد وثوقی صفحات 73-85

    پایش مستقل بی عیبی گیرنده، می تواند با استفاده از اندازه گیری های اضافی شبه فاصله، کار کشف شکست را انجام دهد و برای کاربردهایی نظیر هوانوردی، که سلامت وسیله بسیار مهم است، از اهمیت ویژه ای برخوردار است. روش های متداول بر پایه کمترین مربعات معمولی استوار است که تنها بردار مشاهدات شبه فاصله را خطا دار فرض می کند، اما در واقعیت ماتریس مدل نیز شامل خطا می باشد؛ بنابراین ضرورت استفاده از روش کمترین مربعات کلی وزن دار، که می تواند برای ماتریس مدل نیز خطا در نظر بگیرد، مشهود می شود. روش های موجود برای حل کمترین مربعات کامل، بر پایه استفاده از تجزیه به مقادیر سینگولار استوار است که دارای حجم محاسبات بالایی می باشد. از طرف دیگر، سایر روش های ارایه شده ، که از تجزیه به مقادیر سینگولار استفاده نمیکنند،  نیازمند استفاده از ماتریس های بزرگ بوده و نیز لازم است تا در ماتریس کوواریانس مربوط به ماتریس ساختار، متناظر با ستون های بدون خطا، صفر قرار داده شود که بنوبه خود باعث افزایش ابعاد ماتریس و در نتیجه افزایش حجم محاسبات خواهد شد. اما در روش پیشنهادی حل مساله بدون نیاز به تجزیه به مقادیر سینگولار ، بدون معرفی ضرایب لاگرانژ، اجتناب از معرفی بدون خطا بودن برخی ستون های ماتریس ضرایب با وارد کردن صفر در ماتریس کوواریانس مربوط به ماتریس ساختار و تنها  با معادلات ساده و نیز بر پایه اصول علامت جمع انجام می شود که باعث حجم بسیار کم محاسبات و سرعت بالا خواهد بود. از آنجاییکه در الگوریتم پایش مستقل بی عیبی مشاهدات GPS برای کشف ماهواره های شکست، مخصوصا در صورت وجود چند شکست، می تواند تکرارهای زیادی وجود داشته باشد، این نیاز به سادگی حل و سرعت بالا حیاتی خواهد بود.سپس روش بهینه ای برای وزن دهی به ماتریس ساختار ارایه می گردد که می تواند جواب بسیار بهتری از مجهولات را در حضور شکست های زیاد برآورد نماید که بنوبه خود می تواند بردار باقیمانده ها را طوری برآورد کند که مشاهدات شکست دارای قدرمطلق عدد بزرگتری نسبت به سایرین شده و امکان کشف آنها با هر روش دیگر مانند استفاده از تخمین نااریب یا روش باردا را مطمین تر و امکان پذیرتر سازد. نتایج بدست آمده موفقیت روش پیشنهادی در تعیین موقعیت صحیح  و کشف ماهواره های شکست، حتی با وجود چند شکست همزمان، را نشان می دهد.

    کلیدواژگان: کمترین مربعات کامل وزن دار، پایش بی عیبی مشاهدات، کشف شکست، وزن های بهینه، تعیین موقعیت ماهواره ای
  • دانیال احمدی*، علی اصغر آل شیخ صفحات 87-101

    امروزه در شهرهای بزرگ و در شبکه جاده ای، تراکم ترافیک و مدیریت آن به یک مشکل اساسی تبدیل شده است، که نتیجه این تراکم ترافیک علاوه بر مشکلات روحی و جسمی که برای شهروندان ایجاد میکند، چیزی بجز افزایش مصرف سوخت، تشدید آلودگی هوا و هدر رفت زمان و انرژی نیست. یکی از راه حل های نوظهور برای مدیریت ترافیک و حمل و نقل بحث سواری های اشتراکی است که در آن راننده صندلی های خالی موجود در وسیله نقلیه خود را با افرادی که دارای برنامه سفر و زمانی مشترکی با او هستند به اشتراک میگذارد، که این روش علاوه بر کاهش هزینه و انرژی که هم برای مسافر و هم راننده بدنبال دارد، موجب افزایش کارایی شبکه حمل و نقل و کاهش ترافیک و معضلات ناشی از آن میشود. یکی از مسایلی که در سرویس های سواری اشتراکی از اهمیت بالایی برخوردار است بحث نقاط ملاقات است، اهمیت این موضوع از آن جهت است که در سرویس های سواری اشتراکی راننده ها به دنبال کاهش مسافت طی شده و مصرف سوخت برای رسیدن به مسافر هستند، از طرف دیگر هم هر یک از مسافران دارای پنجره زمانی مشخصی بوده و خیلی از آنها میخواهند  مسافتی را برای رسیدن به یک مکان امن و راحت پیاده روی کنند. از آنجایی که متغیر های این تحقیق که شامل: شیب، سرعت معبر، عرض معبر، فاصله تا تقاطع، مسافت پیاده روی مسافر و میزان انحراف از مسیر راننده است، متغیر هایی، پیوسته، زبانی و غیر دقیق هستند و یک سیستم پیوسته محسوب میشود، استفاده از منطق فازی پیشنهاد شده است. لذا، در این پژوهش با تلفیق منطق فازی و سیستم های اطلاعات مکانی راهکاری جهت شناسایی و ارزیابی نقاط ملاقات ارایه گردیده است.در این تحقیق منطقه مورد مطالعه کلانشهر تهران میباشد. نتایج این تحقیق بیانگر آن است که با افزایش تعداد نقاط ملاقات موجود، تعداد نقاط ملاقات مناسب و نرخ تطبیق به اندازه 15 درصد افزایش پیدا میکند و همچنین میزان انحراف از مسیر اصلی برای راننده تقریبا 14 درصد و مسافت طی شده توسط مسافر برای رسیدن به نقطه ملاقات تا 40 درصد کاهش میابد.

    کلیدواژگان: سواری اشتراکی، منطق فازی، نقاط ملاقات، حمل و نقل هوشمند
  • آرش طایفه رستمی*، علیرضا آزموده اردلان، شیرزاد روحی، امیرحسین پورمینا صفحات 103-116

    سدها به عنوان یکی از مهم ترین سازه های آبی ساخته دست بشر نیازمند پالایش پیوسته و دقیق می باشند. تغییرات سطح آب هر سد یکی از پارامترهایی است که در این مهم نقش اصلی را بازی می کند. در این مطالعه، به منظور پایش مساحت سطح آب سد درودزن از تصاویر راداری ماموریت سنتینل-1A در دو پلاریزه VV و VH در سال های 2018 و 2019 استفاده شد. بررسی هیستوگرام ها در پیش پردازش تصاویر نشان داد که تمامی تصاویر دارای دو قله هستند و از این رو، حداقل مقدار بین دو قله به عنوان حدآستانه جدایی آب و غیرآب در تصاویر انتخاب شد. پس ازآن بخش آبی و غیرآبی در تصاویر تفکیک شده و مساحت سطح آب مخزن سد محاسبه گردید. سپس، سری زمانی مساحت سطح آب بدست آمده از پلاریزه های VV و VH با سری زمانی بدست آمده از مساحت های محلی مخزن سد درودزن مقایسه شد. نتایج نشان می دهد: (1) مقدار حدآستانه ها برای طبقه بندی تصاویر و تفکیک آب از غیرآب برای پلاریزه VH از 36/21- تا 01/23- دسی بل و برای پلاریزه VV از 47/13- تا 08/19- دسی بل متغیر است. (2) پلاریزه VV با RMSE نسبی 83/5% و ضریب همبستگی 55/97% نسبت به مساحت های محلی از پلاریزه VH که مقدار RMSE نسبی 21/9% و ضریب همبستگی 63/83% را در مقایسه با مساحت های محلی نتیجه می دهد، دقت بالاتری دارد. پلاریزه VV نسبت به پوشش آبی از پلاریزه VH حساس تر بوده و در اثر تغییرات فصلی پایدارتر از پلاریزه VH است. (3) مساحت سطح آب مخزن سد درودزن در اسفند سال 1396 شروع به افزایش کرده، و پس از آن در اردیبهشت سال 1397 شروع به کاهش کرده است؛ همچنین در آذر سال 1397 دوباره شروع به افزایش کرده و پس از آن در خرداد سال 1398 شروع به کاهش کرده است. مساحت سطح آب بدست آمده از پلاریزه VV برای مخزن سد درودزن در 31 فروردین سال 1398 با 6187/43 کیلومترمربع بیشترین و در 6 مهر سال 1397 با 2241/24 کیلومترمربع کمترین مقدار خود را داشته است که با نتایج میدانی سازگاری دارد.

    کلیدواژگان: سد درودزن، تصاویر راداری Sentinel-1، پلاریزاسیون VH و VV، مساحت سطح آب
  • مهری داوطلب*، علی اصغر آل شیخ صفحات 117-127

    توصیه مکان جذاب یکی از کاربردهای مهم شبکه های اجتماعی مکان مبنا برای کاربران و مدیران کسب وکارهای مختلف به شمار می رود. شبکه های اجتماعی مکان مبنا شامل ارتباطات پیچیده و گسترده ای از قبیل ارتباطات میان مکان های مختلف، کاربران مختلف، ارتباط میان کاربران و مکان ها و دیگر ارتباطاتی از این دست می باشد که بررسی و مدلسازی دقیق آنها می تواند منجر به توصیه سازی بهتری در این حوزه شود. از آنجایی که این روابط عموما روابط ساده ی دو به دویی نیستند نمی توان آنها را با استفاده از گراف معمول به درستی مدلسازی کرد. این مقاله سعی دارد تا با استفاده از ساختار ابرگراف مدلی برای محاسبه شباهت مکان ها و کاربران ارایه دهد و با اعمال آن در روش پالایه مشارکتی باعث بهبود توصیه سازی آن شود.  نتایج حاصل از این تحقیق بر روی داده های شبکه اجتماعی مکان مبنای Foursquare نشان می دهد که صحت روش پیشنهادی در مقایسه با روش های موفق پیشین حدود %2.7 بیشتر است. در واقع نتایج حاصله گواه آن است که به کار گیری روابط درجه بالا میان کاربران و مکان ها می تواند به بهبود عملکرد توصیه سازی کمک نماید. علاوه بر این، نتایج این تحقیق نشان می دهد که اعمال روش محاسبه شباهت پیشنهاد شده در روش پالایه مشارکتی در مقایسه با روش های رایج محاسبه شباهت، صحت را در حدود %33 افزایش می دهد.

    کلیدواژگان: توصیه مکان جذاب، شبکه های اجتماعی مکان مبنا، روش پالایه مشارکتی، ابرگراف
  • بهنام تشیع* صفحات 129-142

    مدل های رقومی ارتفاعی جهانی (GDEMs) یکی از مهم ترین منابع داده های ارتفاعی هستند. در طی سال های اخیر، GDEMs به دلیل پوشش جهانی و قابلیت دسترسی رایگان به صورت فزاینده ای مورد توجه محققین مختلف قرار گرفته اند. از پرکاربردترین این مدل ها می توان به AW3D، ASTER و SRTM اشاره نمود. هر یک از این مدل ها توسط فناوری های مختلف تولید می شوند و نقاط قوت و ضعف متفاوتی دارند. این امر موجب شده که مدل های مذکور با یکدیگر تطابق کامل نداشته باشند و دقت هر یک از آن ها تابع توپوگرافی محلی سطح زمین باشد. هدف اصلی این مطالعه، ادغام مدل های رقومی ارتفاعی جهانی جهت تولید مدلی با دقت ارتفاعی بالاتر نسبت به هر یک از مدل های اولیه می باشد. در همین راستا، در این مطالعه یک روش دو مرحله ای برای ادغام مدل های رقومی ارتفاعی پیشنهاد شده است. در مرحله اول، با استفاده از مدل رگرسیون وزن دار جغرافیایی (GWR) مناطقی از سطح زمین که دارای ویژگی های مشابه هستند، در کلاس های یکسانی طبقه بندی خواهند شد. در مرحله دوم، به منظور ادغام GDEMs، وزن بهینه هر یک از کلاس های تعریف شده برای هر یک از مدل های AW3D، ASTER و SRTM با استفاده از الگوریتم بهینه سازی توده ذرات (PSO) برآورد می شود. به منظور ارزیابی دقیق روش پیشنهادی، از این روش برای تولید مدل نهایی حاصل شده از ادغام (FusedDEM) در دو منطقه بومهن و تازه آباد استفاده شده است. در منطقه مطالعاتی اول (بومهن)، مقدار جذر میانگین مربع خطاها (RMSE) روی نقاط ارزیابی برای مدل های رقومی ارتفاعی AW3D، ASTER و SRTM در حالت پنج کلاسه به ترتیب 58/4 ، 69/8 و 70/4 متر و برای مدل نهایی حاصل شده از ادغام، برابر با 97/3 متر می باشد. به همین ترتیب در منطقه مطالعاتی دوم (تازه آباد)، مقدار RMSE روی نقاط ارزیابی برای هر یک از مدل های AW3D، ASTER و SRTM به ترتیب 33/3، 31/7 و 17/3 متر و برای مدل نهایی حاصل شده از ادغام، برابر با 74/2 متر می باشد.  نتایج حاصل نشان می دهندکه روش پیشنهادی قادر است با بهره گیری از نقاط قوت هر یک از این مدل های ورودی در فرآیند ادغام، مدلی با دقت بالاتر نسبت به هر یک از مدل های اولیه تولید نماید.

    کلیدواژگان: مدل های رقومی ارتفاعی، الگوریتم بهینه سازی توده ذرات، مدل رگرسیون وزن دار جغرافیایی، ادغام داده های ارتفاعی
  • وحید صادقی، حمید عبادی، آرمین مقیمی*، علیرضا نوزادی صفحات 143-161

    انتخاب نمونه های آموزشی، مرحله ای بسیار مهم و تاثیرگذار در نتایج طبقه بندی و شناسایی تغییرات از تصاویر سنجش از دور بوده و لازم است با حساسیت بالایی انجام گیرد. این نمونه ها اغلب توسط عامل انسانی تعیین می شوند که فرآیندی زمان‍بر بوده و مستعد خطای بالایی است. نقشه های قدیمی می توانند منبع اطلاعاتی ارزشمندی برای انتخاب و تهیه نمونه های آموزشی باشند. در صورتی که این نمونه ها بطور صحیح پالایش شوند، می توانند سبب تسریع، تسهیل و همچنین افزایش صحت فرآیند شناسایی تغییرات شوند. نوآوری اصلی مقاله حاضر، اهتمام در فرآیند پالایش نمونه ها است که با پیشنهاد مدلی مبتنی بر آزمون آماری خی دو و خوشه بندی k-means میسر شده است. این روش ضمن اینکه با بکارگیری آزمون آماری خی-دو، سعی در انتخاب نمونه های آموزشی خالص دارد، با خوشه بندی چندگانه نمونه های آموزشی با تکنیک k-means و انتخاب نمونه های نزدیک به مراکز خوشه های داخلی هر کلاس، تنوع طیفی داخلی کلاسها را نیز لحاظ می نماید. در روش پیشنهادی؛ جهت بهبود صحت طبقه بندی و تشخیص تغییرات ، ویژگی های طیفی و بافتی مرتبه اول و دوم ماتریس رخداد همزمان، استخراج و در فرآیند طبقه بندی به روش ماشین بردار پشتیبان(SVM)  مورد استفاده قرار می گیرد. لازم به ذکر است به منظور ارتقای صحت طبقه بندی و شناسایی تغییرات، فرآیند انتخاب مجموعه ویژگی های بهینه و پارامترهای طبقه بندی کننده SVM با الگوریتم ژنتیک بهینه شده اند. جهت پیاده سازی و ارزیابی روش پیشنهادی، از تصاویر دوزمانه در بازه زمانی 2011 و 2015 و نقشه کاربری اراضی سال 2009 مربوط به شهر شیراز استفاده شد. با بکارگیری روش ارایه شده در این تحقیق، نقشه های موضوعی منطقه مورد مطالعه با صحت کلی 72/98% و 57/94% بهنگام گردیده و با مقایسه آنها، نقشه ماهیت تغییرات حاصل گردید. ارزیابی نتایج نشان داد؛ فرآیند پالایش نمونه های آموزشی سبب بهبود نتایج طبقه بندی تصویر سال 2011 (افزایش ضریب کاپا از 65% به 87% و افزایش صحت کلی از 73% به 91%) و همچنین تصویر سال 2015 (افزایش صحت کلی از 69% به 32/86% و افزایش ضریب کاپا از 59% به  48/80%) شده است.

    کلیدواژگان: شناسایی تغییرات، بهنگام رسانی، پالایش نمونه های آموزشی، آزمون آماری خی-دو، خوشه بندی k-means
  • مرتضی ترابی، فرهاد حسینعلی*، حسین غیاثوند ننجی صفحات 163-177

    جمعیت شهرها روز به روز افزایش می یابد؛ اما زیرساخت های حمل و نقل شهری متناسب با روند افزایش توسعه نمی یابد. این امر باعث بروز ازدحام شدید خیابان ها شده است. کاربردی ترین رویکرد ممکن برای حل این مشکل استفاده کارا از این زیرساخت ها است و کنترل درست ترافیک نقش مهمی در این کارایی دارد. هدف این تحقیق توسعه یک سیستم شبیه ساز عامل مبنا برای کنترل ترافیک شهری است. در این پژوهش، از مدل میکروسکوپیک ترافیک در بستری شبیه سازی شده از انواع خیابان های متقاطع دارای چراغ راهنمایی، جهت بهینه کردن جریان ترافیک استفاده شده است. در این روش با تعریف پارامترهای اصلی ترافیک به عنوان مجموعه ای از عامل های هوشمند در مقیاس میکرو، انتظار می رود بهترین تنظیمات چراغ راهنمایی برای بهبود مساله ترافیک به دست آید. عامل های مذکور شامل سه دسته (خودروها، مرکز کنترل ترافیک و چراغ های راهنمایی) با عملکردهای متفاوت هستند. سناریوهای تعریف شده علاوه بر اینکه بهینه سازی زمانبندی چراغ راهنمایی در تقاطع ها را مد نظر دارند، بهینه سازی کل جریان ترافیک را نیز دنبال می کنند. سناریوها با تغییر نوع عملکرد چراغ راهنمایی و نوع مسیریابی خودروها پیاده سازی شده اند. برای چراغ راهنمایی سه حالت معمول، شمارشی و بهینه (هوشمند) در نظر گرفته شده است و همچنین برای مسیریابی خودروها از دو حالت کوتا هترین مسیر و حالت بهینه با استفاده از اطلاعات ترافیک مسیر استفاده گردید. با ترکیب این حالت ها مجموعا شش سناربو حاصل شد.  نتایج حاصل از مقایسه زمان توقف خودروها و سرعت میانگین خودروها، بهینه شدن جریان ترافیک را در سناریوی ششم برای حالتی که هم چراغ راهنمایی هوشمند است و هم از مسیریابی بهینه با استفاده از اطلاعات ترافیکی استفاده می شود، نشان داد. در این سناریو، متوسط زمان توقف هر خودروها 3.12 ثانیه بر کیلومتر کاهش و سرعت متوسط آن 1.83 کیلومتر  بر ساعت افزایش را نسبت به مقادیر میانگین هر شش سناریو به ثبت رساند. برای اعتبارسنجی این مدل از داده های کنترل شده استفاده شد که دقت نسبی 83% را برای پارامتر زمان توقف و 94% را برای میانگین سرعت نسبت به داده های کنترل شده به دست آورد. این نتایج حاکی از کارایی و قابلیت اطمینان مدل عامل مبنای توسعه داده شده برای روانسازی جریان ترافیک در شهر است.

    کلیدواژگان: مدل عامل مبنا، مسیریابی هوشمند، سیستم های کنترل ترافیک، عامل چراغ راهنمایی
  • مرتضی حیدری مظفر، احسان صالح جونقانی* صفحات 179-190

    جمعیت شهری، به ویژه در کشورهای روبه توسعه به تدریج در حال افزایش است. استفاده بهینه از سرزمین نقش مهمی در برنامه ریزی و مدیریت رشد شهری دارا می باشد. این اصل به ویژه در راستای نیل به توسعه پایدار در نواحی شهری از اهمیت مضاعف برخوردار است. بهره برداری غیراصولی از اراضی نیز رو به گسترش بوده که موجب تخریب و نابودی منابع طبیعی می شود. مطالعه تغییرات کاربری اراضی و تاثیرات گسترده آن بر محیط زیست و درک چگونگی این تغییرات چه از نظر الگوی مکانی و چه از نظر کمیت آن ضروری است. در این مقاله، مدل سازی تغییرات کاربری اراضی شهر اصفهان با استفاده از سیستم اطلاعات مکانی و در محیط نرم افزار Idrisi انجام گرفت. نقشه های کاربری اراضی با استفاده از تصاویر لندست مربوط به سال های 1997، 2008 و 2017 ایجاد و همچنین از نقشه های 1:25000 برای شناسایی بهتر منطقه، زمین مرجع کردن و تصحیح هندسی تصاویر ماهواره ای استفاده گردید. مدل سازی پتانسیل انتقال، به کمک الگوریتم شبکه عصبی پرسپترون (Multi Layer Perceptron) انجام شد. سپس با استفاده از برخی متغیرهای دینامیک شامل فاصله از مراکز دانشگاهی، فاصله از مراکز صنعتی، فاصله از مناطق مسکونی،  فاصله از معابر و نیز مدل رقومی ارتفاعی زمین (Digital Elevation Model) به عنوان یک متغیر استاتیک میزان تخصیص تغییرات کاربری ها به یکدیگر آشکار سازی شد. همچنین، به روش زنجیره مارکوف (Markov Chain) پیش بینی نقشه کل تغییرات کاربری اراضی در مدل سازی تغییرات کاربری اراضی (Land Change Modeler)  انجام گرفت. نتایج مدل سازی پتانسیل تبدیل کاربری ها در همه زیر مدل ها، دقت بالای 95 درصد را نشان داد. محاسبه صحت مدل پیش بینی نیز با استفاده از ضریب کاپا برابر با 9/0 بدست آمد. نتایج از بررسی تغییرات و پیش بینی کاربری اراضی گویای توسعه مناطق شهری اصفهان است. این تغییرات نشان می دهد که دیگر کلاس های کاربری اراضی در حال کاهش است و با توجه به نتایج حاصل از مدل LCM در کل دوره، اراضی شهری از 21239 هکتار در سال 1997 به 23607 هکتار در سال 2017 افزایش یافته است. پیش بینی می شود که این روند صعودی در آینده نیز ادامه خواهد داشت. مطابق پیش بینی مدل زنجیره مارکوف، اراضی شهری اصفهان تا سال 2027 به حدود 24023 هکتار خواهد رسید.

    کلیدواژگان: شهر اصفهان، تصاویر لندست، زنجیره مارکوف، شبکه عصبی پرسپترون، کاربری اراضی، مدل LCM
  • آریا فخری*، محمد سعادت سرشت، مسعود ورشوساز، حمزه ذاکری صفحات 191-204

    در چند سال اخیر، به کارگیری پرنده های بدون سرنشین باقابلیت هدایت از راه دور که به پهپاد معرف است به شکل گسترده ای در مهندسی نقشه برداری تحت عنوان فتوگرامتری پهپاد مطرح شده است و از طرفی به دلیل در اختیار داشتن پهپادها به عنوان یکی از مهم ترین سکوها جهت کاربردهای فتوگرامتری از مناطق مختلف شهری و غیرشهری در مقیاس های متفاوت، شرایط بررسی و ارزیابی دقت هندسی این تصاویر باقدرت تفکیک مکانی بالا، در تولید و به روزرسانی نقشه های بزرگ مقیاس پوششی را فراهم می کند. یکی از مهم ترین پارامترهای هندسی در تصاویر پهپاد، تعیین حد تفکیک مکانی بوده که به عنوان معیاری جهت تشخیص کوچک ترین فاصله بین دو شی مجاور قابل تفکیک در تصاویر شناخته شده است. روش های مختلفی جهت اندازه گیری دقیق حد تفکیک مکانی تصاویر وجود دارد؛ که در این پژوهش از ستاره زیمنس، به عنوان یکی از پرکاربردترین تارگت های مصنوعی مورداستفاده در اندازه گیری حد تفکیک مکانی، استفاده شده است. هدف از این مقاله ارایه روشی خودکار جهت تشخیص شعاع دایره ابهام و محاسبه حد تفکیک مکانی در تصاویر اخذشده از پهپاد می باشد. نتایج این تحقیق نشان داد اولا با توجه به ارتفاع پرواز و میزان تاری تصویر باید از تارگت ستاره زیمنس با ابعاد و تعداد بازو مناسب استفاده کرد و ثانیا میزان کاهش حد تفکیک تصاویر در پهپادهای مورد آزمون اعدادی بین 1/2 تا 3/7 بوده است.

    کلیدواژگان: پهپاد، حد تفکیک مکانی، ستاره زیمنس
|
  • H. Bahadorizadeh*, M. R. Malek Pages 1-16

    Today, volunteered geographic information (VGI) has provided an innovative, fast, and low-cost approach to data collection. Using this approach will lead to problems such as semantic heterogeneity. Ontology is one of the newest modeling scientific methods and that can solve the data semantic heterogeneity problems. But using ontology to collect information has challenges in volunteered geographic information systems. Since ontology is derived from the technical procedure so, for use it, specialized tools and specialized information are needed and its output will be used by experts. As people are not usually experts and do not have specialized tools, so in this research, we have proposed the method for utilizing ontology in VGI systems to prevent the creation of semantic heterogeneity in the data. Besides, volunteers don’t need to train or to have specialized tools for using this system. In this method, we are gathering information and developing the ontology model of information and finally an understandable conceptual model for the public at three levels of details using the classes, subclasses, relationships, and features in the ontology model will be built. Then we are relating this conceptual model to the ontological model using a look-up table. By doing this, the volunteers are entering their information in the VGI system based on the conceptual model, and the result of the ontology model will be provided to the decision makers as output. Finally, we selected the surface water resources as the case study and then evaluated the conceptual model from viewpoint of the simplicity and ambiguity of the volunteers and the lack of need for specialized information to use it. According to the results, approximately 83% of the concept model is unambiguous and understandable to volunteer without training. Also the results of the ontological model were evaluated in an efficiency viewpoint for decision making by experts. The results of this evaluation also are showing 88% of the output information from the ontology model is appropriate for decision making. Therefore, the results of the evaluating are showing the effectiveness of the conceptual and ontological model for the intended purpose.

    Keywords: Volunteered Geographic Information (VGI), Semantic Heterogeneity, Ontological Model, Conceptual Model, Look-up Table
  • Y. Ebrahimian Ghajari* Pages 17-33

    Considering that earthquakes are one of the most common natural crises in the world, especially in Iran, so far, a lot of research has been done to evaluate the vulnerability of buildings to earthquakes. The main problem in the face of an earthquake is the complete unpreparedness to deal with it, that one of the basic strategies to create this preparedness is to evaluate and be aware of their resistance to earthquakes in different risk scenarios and conditions. In this study, using the opinions of geologists, structures and earthquakes engineers, urban planning experts, passive defense and architecture engineers, 8 vulnerability criteria extracted and fuzzy standard criterion maps produced according to each of them. The Fuzzy AHP technique was also used to weigh the criteria and the fuzzy Simple Additive Weighting operator was used to combine the standard maps. To defuzzify fuzzy vulnerability maps and generate vulnerability maps in different risk conditions, the Ordered Weighted Averaging operator (OWA) was used. Analysis of the results showed that in the most optimistic scenario, 39% of the buildings have low vulnerability and in the most pessimistic scenario, 49% of the buildings have high vulnerability. Sensitivity analysis technique was used to evaluate the model, which showed that the results are highly reliable.

    Keywords: Seismic Evaluation, Geospatial Information Systems (GIS), Region 6 of Tehran, Fuzzy AHP, OWA, Sensitivity Analysis
  • H. Etemadfard, V. Sadeghi*, N. Aldirawi, R. Shad Pages 35-48

    One of the important issues in urban management is locating of urban parks. Urban parks, as one of the most important public service spaces in the city, have a great role in promoting the social, cultural, economic and environmental conditions of urban areas. Optimization can be considered as an effective tool for this problem. The key factors to achieve a successful public park are accessibility and appropriate link between different features of urban structures. Therefore, it is necessary to identify effective criteria and appropriate tools in urban park site locating. The purpose of this paper is optimal locating of urban parks sites in the city of Samawah (Iraq) using Geo-spatial information system and genetic algorithms. To this end, objective functions include; minimize population movement distances and homogeneous distribution of people in proportion to the capacity of parks. Based on the proposed method and considered criteria; Land use, distance from urban transportation network, distance from rivers, population density and distance from noise (factories, etc.), four suitable areas for the construction of a park in the city of Samawah were determined.Scrutinizing of the characteristics of the determined sites for the construction of the urban parks, the high capability of the genetic algorithm in this application was proved. The northern part of the river has high population density. The genetic algorithm has chosen a location between the eastern and western blocks from the all candidates to cover the population demand. In the southern part of the river; three locations have been proposed for the construction of urban parks. The first and most important location is located in the central and high densely populated part of the city, where the existing barren land has provided ideal conditions for the construction of urban park. This location is the best option for building a park due to its proximity to various land use, proximity to building blocks and the densely populated area, as well as ideal access to the transportation network.  Third location; it includes the barren land covers to the west of the citychr(chr('39')39chr('39'))s residential area. Due to its proximity to the river and urban blocks, this location is a suitable option for the construction of public parks. Fourth case; it is located in the southern part of the region. This location is one of the best locations for park construction due to its proximity to different land uses. The proposed method and results could provide valuable information to managers when locating urban parks in Samawah City.

    Keywords: Optimal Locating, Urban Parks, Geo-spatial Information Systems (GIS), Optimization, Genetic Algorithm
  • E. Nekouzade Chaharmahali* Pages 49-56

    Interpolation is the process of estimating unknown values that are located between known values. Usually this process is done using different kinds of continuous functions. One of the most common types of continuous functions which can be used for interpolation, are polynomials. In approximation theory polynomial interpolation is utilized to approximating a complex function using a polynomial. In this issue polynomial coefficients can be determined using different computing methods. The basic procedure to determining the coefficients, is solution of vandermonde system. The system however, has only theoretical significance, since its solution by numerical methods is ill-advised on all counts (computational effort, storage requirement, accuracy). This is the reason to using some alternative methods such as Newton and Lagrange. These methods are two well-known representations of the unique interpolation polynomial. Newton representation is based on determining divided differences, while the other one is a very elegant alternative representation of Newtons general formula that does not require the computation of finite or divided differences. Lagrange representation can be utilized for any sets of interpolating points. In some cases Lagrange representation is used for interpolating between equidistant nodes. For example in GNSS positioning it is a common issue to find the satellites position using the coordinates are given in 15 minutes constant interval. generally computing Lagrange basis polynomial using current method requires O(n2) operations. So when we use polynomials with high degrees for interpolation, we expect a significant increase of computational effort. According to this issue in the last article we introduced a recursive algorithm to obtaining Lagrange coefficients using equidistant nodes. By the use of this algorithm, we had a significant improvement in computations speed. Despite the usage of equidistant interpolation, it is not a good idea to use evenly spaced points to approximating a function. Because in such a situation interpolated polynomial has wild oscillations near the edges of interpolation interval and does not converge to the main function, specially in high order polynomials. This nonconvergence is called Runge phenomenon. To avoiding this problem, other sets of interpolating points should be used, with more density at the end points of interval. The simplest examples of such a point sets, are the families of Chebyshev points. These points are set of zeros of the Chebyshev polynomial. By using Chebyshev nodes, interpolation will be more accurate. Since unwanted oscillations are gone. Due to the mentioned advantages of Chebyshev nodes, in this paper we are going to introduce a recursive algorithm  to obtaining Lagrange coefficients using these sets of points. computing Lagrange basis polynomial using this method requires O(n) operations unlike the current method. So by the use of recursive algorithm, we expect speed increase in computations process. To investigating this issue we obtained Lagrange basis polynomial for all integer numbers within [1,1000] interval. All of coefficients were computed for different polynomial degrees from 1 to 10 using MATLAB. In the following we recorded calculating times for both of computing algorithms and also for different polynomial degrees. After checking computing times we found a significant increase in processing speed by the use of recursive method. Although this method reduces processing time for all polynomial degrees, it is more effective when we use polynomials with high degrees. In other words when we use a polynomial with degree of one, the recursive algorithm is 1/3 times faster in comparison with usual algorithm; But when we use a polynomial in degree of 10, it is 3 times faster. So we conclude that it is logical to use this algorithm specially when we use high degree polynomials for interpolation.

    Keywords: Approximation Theory, Lagrange Interpolation, Recursive Computation of Lagrange Basis Polynomial, Chebyshev Nodes, Equidistant Nodes
  • S. Hashemi Dare Badami, M. Omidipour, M. R. Jelokhani Niaraki*, S. Mahmoudi Pages 57-71

    One of the inseparable parts of human life in all parts of the world and time periods is the occurrence of various natural disasters such as floods, earthquakes, etc. Some countries, such as Iran, are more vulnerable to these events due to their geographical location and special climate conditions. Disaster management is important in the event of such disasters, which can reduce the loss of life, property, and mental health and prevent the imposition of exorbitant costs on the country. One of the most important aspects of disaster management is the proper and equitable distribution of the aid. The disadvantages of conventional and non-systemic approaches are lack of accurate information on the position of the affected areas and the type of needs of the people living there, inconsistency in the allocation of aid between the different organisations, and lack of awareness of the type and amount of aid allocated. Such a distribution causes problems, such as the unfair distribution of aid in the form of accumulation and loss of certain items in some areas, and the scarcity and high cost of certain items in others. A spatial decision-making system based on volunteered geographic information was proposed and implemented in this study in order to properly and fairly distribute aid in the event of natural disasters, which supports the disaster managers’ needs and functions. The proposed framework consists of two main phases. In the first phase three groups of users collect data on the affected areas and their needs in the context of volunteered geographic information.This data includes location data and the needs of the affected areas. After collecting a huge amount of data, in the second phase, with the help of multi-criteria decision analysis tools, the affected areas are prioritized in terms of need for assistance and items. Therefore management and monitoring of the process of distribution of items and allocation of aid to different affected areas is done. The advantages of using the proposed system are accelerating the identification of damaged areas, timely and targeted distribution of aid in a manner appropriate to the type and amount of needs, effective participation of injured and relieved people, prevention of loss of aid and possible abuses and saving time and money.

    Keywords: Disaster Management, GIS, Volunteered Geographic Information, Spatial Decision Making System
  • Y. Naeimi*, B. Voosoghi Pages 73-85

    In this paper, first the method of solving the linear weighted total least squares, and then its generalization to nonlinear state is discussed; as the problem-solving model for determining the coordinates with pseudo-range GPS observations is fully consistent with this model. Available techniques for solving the TLS are based on the SVD and have a high computational burden. Furthermore, the other presented methods that do not use SVD, need large matrices, and there is need for placing zero in the covariance matrix of the design matrix, corresponding to the errorless columns, which increases the matrix size and, as a result, raises the volume of the calculations. But in the proposed method, problem-solving is done without need for SVD, without introducing Lagrange multipliers, and avoiding the error-free introducing of some columns of the design matrix by entering zero in the covariance matrix of the design matrix. It is performed only using easy equations and on the basis of summation principles, which results in less computing effort and high speed. In the following, an optimal method for weighting the design matrix is presented, which can yield a much better answer to the unknowns in the presence of many failures (here, up to three failures are assumed and tested). Besides, it can estimate the residuals vector so that the failure observations would have larger magnitudes than the others, and could help with detecting them in a safer and more feasible way with respect to any other method.

    Keywords: GPS, RAIM, Weighted Total Least Squares, Optimal Weights
  • D. Ahmadi*, A. A. Alsheikh Pages 87-101

    Today, in big cities and in the road network, traffic congestion and its management has become a major problem, which results in this traffic congestion in addition to the mental and physical problems it creates for citizens, nothing but increased fuel consumption, increased air pollution and waste. Gone is not time and energy. One of the emerging solutions for traffic and transportation management is the discussion of ride sharing, in which the driver shares the empty seats in his vehicle with people who share a travel and time plan with him, which in addition to reducing The cost and energy that follows for both the passenger and the driver will increase the efficiency of the transportation network and reduce the traffic and the resulting problems. One of the most important issues in shared passenger services is the discussion of meeting points. This is important because in shared passenger services, drivers are looking to reduce the distance traveled and fuel consumption to reach the passenger, from On the other hand, each passenger has a specific time window and many of them want to walk a distance to reach a safe and comfortable place. Since the variables of this research, which include: slope, speed of the passage, width of the passage, distance to the intersection, distance of the passenger and the amount of deviation from the driverchr  path, the variables are continuous, linguistic and inaccurate and is a continuous system. , The use of fuzzy logic is suggested. Therefore, in this study, by combining fuzzy logic and spatial information systems, a solution to identify and evaluate meeting points has been presented. In this study, the study area is the metropolis of Tehran. The results of this study indicate that with increasing the number of available meeting points, the number of suitable meeting points and adaptation rate increases by 15% and also the rate of deviation from the main route for the driver is approximately 14% and the distance traveled by the passenger to reach the point. Meetings are reduced by up to 40%.

    Keywords: Ride Sharing, Fuzzy Logic, Meeting Points, Intelligent Transportation
  • A. Tayfehrostami*, A. R. Azmoudeh Ardalan, Sh. Roohi, A. H. Pourmina Pages 103-116

    Dams as important man-made structures need to be monitored continuously and precisely. Variations in water surface area play an important role in this major. SAR images of the Sentinel-1 mission have been considered a promising tool to monitor water dynamics due to their cloud-proof, illumination-independent, and high spatiotemporal resolution properties. In this study, to monitor the surface area of the Doroudzan dam reservoir, SAR images of Sentinel-1A mission in two polarization (VV and VH) in 2018 and 2019 are used. After image pre-processing, images are classified into two-class, i.e. water and non-water, based on the thresholding method, and corresponding threshold values are selected from the image. Next, the area of the water body was computed. Then, the time series of the surface area of the dam reservoir is obtained from VV and VH polarizations and was compared with the time series obtained from in-situ areas computation of the Doroudzan dam reservoir. The results showed that: (1) The threshold values for the classification of images and water separation from non-water for VH from -21.36 to -23.01 dB and VV from -13.47 to -19.08 dB. (2) VV polarization with relative RMSE of %5.83 and correlation coefficient of %97.55 compared to in-situ surface areas achieved higher accuracy as compared to VH polarization which resulted in relative RMSE value of %9.21 and correlation coefficient of %83.63 as compared to in-situ areas; VV is more sensitive to water cover than VH and is more stable under seasonal variations than VH. (3) The surface area of the Doroudzan dam reservoir area had started to increase in February 2018, and then declined in May 2018; It also started to rise again in December 2018 and then declined in May 2019. The surface area obtained from VV polarization of the Doroudzan dam reservoir was at its maximum on 20 April 2019 with 43.6187 km2 and a minimum on 28 September 2018 with 24.2241 km2.

    Keywords: Doroudzan Dam, Sentinel-1 SAR Images, VH, VV Polarization, Surface Area
  • M. Davtalab*, A. A. Alsheikh Pages 117-127

    Point of interest (POI) is one of the important applications of location-based social networks (LBSNs) for users and business managers. LBSNs include various complex relations (i.e., POI-POI, user-user, user-POI, and so on), that more accurate modeling of them can lead to making a better recommendation. Since some relations are much more sophisticated than pairwise relations, and thus cannot be simply modeled by a graph. This study proposes a model for calculating the similarity of POIs and users based on hypergraph structure and by integrating that into the collaborative filtering (CF) method it can improve the recommendation performance. The results obtained from the real data set, Foursquare, show that the proposed model performs better than state-of-the-art methods in terms of accuracy. Taking high-order relations between POIs and users into account can improve recommendation performance by 2.7% in terms of accuracy. By integrating the proposed similarity learning into the collaborative filtering (CF) method, our method obtained approximately 33% improvements in accuracy compared to the traditional similarity learning methods.

    Keywords: Points of Interest, Location-based Social Networks, Collaborative Filtering (CF), Hypergraph
  • B. Tashayo* Pages 129-142

    Global Digital Elevation Models (GDEMs) are one of the most important sources of elevation data. In recent years, GDEMs have become increasingly popular with researchers due to their global coverage and free accessibility. The most commonly used GDEMs are AW3D, ASTER, and SRTM. Each of these models is produced by different technologies and have different strengths and weaknesses. This issue indicates that these data are not necessarily consistent with another, and their accuracy is dependent on the local topography of the earth. The main objective of this research is to fuse global digital elevation models to produce a model with higher vertical accuracy. In this regard, in this study, a two-step approach is proposed for fusing GDEMs. In the first step, a Geographically Weighted Regression (GWR) model is used to determine areas of the Earthchr(chr('39')39chr('39'))s surface that have similar properties. In other words, using the GWR model, regions of the study areas with similar behaviors are classified into the same classes. At this step, each of these study areas is classified into three, five, and seven classes. Among these modes, for both study areas, the best results are for five Class mode. In the second step, to fuse GDEMs, the optimum weight of each class defined for each of AW3D, ASTER, and SRTM models are estimated using the particle swarm optimization (PSO) algorithm. In order to evaluate the accuracy of the proposed method, it has been used to produce the fused DEM for two study areas of BumeHen and TazehAbad. In the first case study (BumeHen), the amount of Root Mean Square Error (RMSE) on test points in five class mode for AW3D, ASTER and SRTM are 4.58, 8.69 and  4.70 meters respectively, while it’s 3.97 meters for fused DEM. In the second case study (TazehAbad), the amount of RMSE on test points in five class mode for AW3D, ASTER, and SRTM are 3.33, 7.31, and 3.17 meter respectively and it’s 2.74 meters for fused DEM. The results show that the proposed method is capable of producing a higher accuracy model than any of the initial models by utilizing the potential of each of these input models in the fusion process.

    Keywords: Digital Elevation Models (DEMs), Particle Swarm Optimization (PSO) Algorithm, Geographically Weighted Regression (GWR), Fusion of Elevation Data
  • V. Sadeghi, H. Ebadi, A. Moghimi Pages 143-161

    The training data selection is an important and operative step in the classification and change detection procedure from remote sensing images, which needs to be provided with high sensitivity. These samples are often determined by the human factor, which is a time-consuming process and prone to high error. Old maps can be a valuable source of information for selecting and preparing training samples. If these samples are accurately refined, they can speed up, facilitate and also increase the accuracy of the change detection process. The main innovation of the present paper is the diligence in the sampling process, which has been made imaginable by proposing a model based on the chi-squared statistical test and k-means clustering. This method, while using Chi-square statistical test, tries to select pure training samples, by selecting samples that are close to the centers of internal clusters in each class with multiple k-means clustering that takes into account the internal spectral diversity of classes. In this method, the spectral and the first and second-order of co-occurrence matrix are extracted and used in the support vector machine (SVM) classification process. Furthermore, the feature selection and SVM parameters have been optimized by the genetic algorithm to more improve the classification and change detection accuracy. For implementation, bitemporal satellite images at 2011 and 2015 and land use map of 2009 related to the Shiraz has been employed. Using the proposed method led to update the thematic maps of the study area with an overall accuracy of 98.72% and 94.57%, and a from-to change map. Experimental results showed that the refinement process of the training samples improves the results of the 2011 image classification (increasing the kappa coefficient from 65% to 87% and increasing the overall accuracy from 73% to 91%) as well as the 2015 image (increasing the overall accuracy from 69% to 86.32% and Kappa coefficient has been increased from 59% to 80.48%).

    Keywords: Change Detection, Updating, Refinement of Training Data, Chi-square Test, k-means Clustering
  • M. Torabi, F. Hosseinali*, H. Ghiasvand Pages 163-177

    Nowadays, cities’ population has been encountered with rapid growth. However, the urban transport infrastructures are not developed with this rate. This issue yield to the common problem which is the traffic jam in streets. The practical approach to solve this problem is the efficient use of the infrastructure and proper traffic control which plays an important role in this performance. Based on the aforementioned issues, the aim of this study is an urban traffic control system using the agent-based simulation approach. In this study, the microscopic model for efficient network traffic junctions in the context of the flow of traffic at intersections has been used. The proposed approach, by defining the main parameters of traffic as a collection of micro-scale smart agents, is expected to address the issue mentioned more effectively. These agents consist of three categories (vehicles, traffic control centers and traffic lights) with different functions. In our approach in addition to the defined scenarios for intersection with a focus on optimizing time, total optimization of traffic flow will also be followed. Also, path finding is used to test the performance of the model. Having the traffic lights with three phase and two methods of path finding, six scenarios are defined and are implemented in a simulated environment. The results of the comparison parameter stop time and the average speed of vehicles reveals the fact that using the intelligent path finding and smart traffic light (sixth scenario) would lead to the downturn about 3.12 seconds per kilometer for stop time and upturn near 1.83 km/h for average speed of cars using the proposed method. We used the controlled data for the evaluation process and the relative accuracy was 83% for stop time and 94% for average speed of vehicles. The results of this study revealed the efficiency as well as reliability of the developed agent-based model in traffic smoothing.

    Keywords: Agent-based Modeling, Intelligent Routing, Traffic Control Systems, Traffic Light Agents
  • M. Heidari Mozaffar, E. Saleh Joneghani* Pages 179-190

    urban population, especially in developing countries, is increasing gradually. Optimal use of land plays an important role in planning and urban development management. This principle is especially important in achieving sustainable development in urban areas. Not-principles Exploitation causing destruction and degradation of resources. Study dynamics of land use changes and their broad impacts on the environment, it is essential to understanding how these changes occur, both in terms of spatial pattern and in terms of its quantity. In this article, it was noticed to simultaneously apply spatial information and remote sensing information to study and model land use change in order to Isfahan city. land use maps using Landsat images for the years 1997, 2008 and 2017 manufacturing and maps of 1: 25000 scalewere used to better identify the area, land reference and geometric correction of satellite images. Transmission potential modeling using perceptron multi-layered artificial neural network algorithm was down. Through certain dynamic variables include distance from academic centers, distance from industrial centers, distance from residential areas, distance from passages as well as digital elevation modelas a static variable; then, The amount of each land use conversion is predicted with the Markov chain and the total map of land use change made with two models of hard prediction and soft prediction in the LCM model.The results ofland use transformation potential modeling in all submodels showed over 95% accuracy. the calculation of accuracy of the prediction model, i.e. the kappa coefficient equal to 0.9 was obtained. The results obtained from the study of changes and prediction of land use indicate the development of urban areas Isfahan. These changes also indicate that decrease of other land use classes. According to the results of the LCM model over the whole span, the urban lands have increased from 21239 hectares in 1997 to 23607 hectares in 2017; this upward trend will continue into the future. In modeling and according to the results of the Markov chain model, the urban lands will reach 24023 hectares by 2027.

    Keywords: Isfahan City, Landsat Images, Land Use, LCM Model, Markov Chain, Perception Neural Network
  • S. A. Fakhri*, M. Saadatseresht, M. Varshosaz, H. Zakeri Pages 191-204

    In recent years, the use of unmanned aerial vehicles (UAVs) that has been introduced to UAVs has been widely used in surveying engineering under the name of UAV photogrammetry. Different urban and non-urban scales on different scales provide the conditions for examining and evaluating the geometric accuracy of these high-resolution spatial images in the production and delivery of large-scale maps and coverage scales. One of the most important geometric parameters in UAV images is the determination of the spatial resolution, which is known as the criterion for detecting the smallest distance between two adjacent objects that can be distinguished in the images. There are several ways to accurately measure the spatial resolution of images; in this study, the Siemens star was used as one of the most widely used artificial targets in measuring spatial segregation. The purpose of this paper is to provide an automatic method for detecting the radius of ambiguity and calculating the spatial resolution limit in images taken from UAVs. The results of this study showed that firstly, according to the flight altitude and the amount of blurring of the image, the Siemens Star Target should be used with appropriate dimensions and number of arms, and secondly, the rate of reduction of image resolution in the tested drones was between 1.2 and 3.7.

    Keywords: UAV, Spatial Resolution, Siemens Star