فهرست مطالب

علوم و فنون نقشه برداری - سال پنجم شماره 4 (بهار 1395)
  • سال پنجم شماره 4 (بهار 1395)
  • تاریخ انتشار: 1395/03/30
  • تعداد عناوین: 21
|
  • علیرضا آزموده اردلان، روح الله کریمی، نوشین مهرنگار * صفحات 1-10
    اندازه گیری و مدلسازی میدان جاذبه بر حسب توابع پایه هارمونیک کروی یا بیضوی به واسطه تفکیک فرکانسی حاصل، همواره مورد توجه ژئودزین ها و ژئوفیزیک دانان بوده است. در این مقاله، بر اساس تعریف ژئوئید گوس-لیستینگ با استفاده از تکینک های ماهواره ای، روشی برای بهبود مدلهای ژئوپتانسیلی ارائه گردیده که آن را بر مبنای مراحل محاسباتی می توان بصورت ذیل خلاصه نمود: (1) محاسبه ژئوئید و پتانسیل آن در دریا بر مبنای مشاهدات ارتفاع سنجی ماهواره ای و مدلهای ژئوپتانسیلی در طی یک فرایند بهینه سازی کمترین مربعات. (2) تبدیل پتانسیل ژئوئید به پتانسیل روی بیضوی رفرانس از طریق فرمول برونز، (3) تعیین شبکه ای منظم از پتانسیل جاذبه روی بیضوی در کل جهان که بخش آبهای آن از مرحله قبل و بخش خشکی ها از طریق بسط ژئوپتانسیلی حاصل شده است. (4) حذف بایاس توپوگرافی ناشی از محاسبه پتانسیل بر روی بیضوی در خشکی ها (5) تعیین ضرائب هارمونیک های کروی تا درجه و مرتبه متناظر با تراکم فضائی شبکه ایجاد شده از طریق یک روشی تلفیق از آنالیز فوریه و کمترین مربعات. به عنوان مطالعه موردی، الگوریتم یاد شده برای بهبود ضرائب تا درجه و مرتبه 90 مدل ژئوپتانسیلی ترکیبی EGM08 و مدل ژئوپتانسیلی ماهواره ای go_cons_gcf_2_dir مورد استفاده قرار گرفت. نتایج حاصل از مقایسه مدل ها با مدل جدید متناظر در 270 نقطه GPS/Leveling در ایران بهبودی در حدود 6 سانتیمتر برای هر دو مدل، و در 75 نقطهGPS/Leveling در فنلاند بهبودی در حدود 1 سانتیمتر برای EGM08 و بهبودی در حدود 3 سانتیمتر برای go_cons_gcf_2_dir را نشان می دهد. همچنین مقایسه مدلها با مدل جدید متناظر در 600 نقطه ثقلی در سراسر دنیا، نشان میدهد که مدل جدید نسبت به دو مدل دیگر بهبودی در حدود 3/0 میلی گال را دارا می باشد.
    کلیدواژگان: مدل ژئوپتانسیلی، ارتفاع سنجی ماهواره ای، توپوگرافی دینامیکی متوسط، ارتفاع ژئوئید، آنالیز فوریه
  • نورالله تتر *، محمد سعادت سرشت، حسین عارفی، احمد هداوند صفحات 11-21
    وجود عوارض با اختلاف ارتفاع مختلف به خصوص در نواحی شهری باعث ایجاد سایه در تصاویر ماهواره ای با توان تفکیک مکانی بالا می شوند. سایه ها با ایحاد تمایز طیفی بالا نسبت به سایر نواحی، در عمده پردازش های تصاویر مانند طبقه بندی، آشکارسازی تغییرات و تناظریابی تصاویر استرئو تاثیر زیادی می گذارند، لذا شناسایی صحیح و کامل آن ها از اهمیت بالایی برخوردار است. در این مقاله، شاخصی جدید برای استخراج سایه ها در نواحی شهری براساس باندهای طیفی تصویر پیشنهاد شده است. پس از شناسایی سایه ها با شاخص پیشنهادی، برای افزایش دقت و بهبود کیفیت از اشیاء تصویری استفاده شده است. همچنین به منظور خودکارسازی فرآیند تصمیم گیری براساس مقادیر شاخص، از الگوریتم Otsu استفاده شده است. نتایج بدست آمده بر روی تصاویر سنجنده ی GeoEye1 از منطقه شهری قم نشان می دهند، روش پیشنهادی توانسته است، نواحی سایه را با معیارهای صحت %93 و تمامیت %92 استخراج کند.
    کلیدواژگان: سایه، شناسایی سایه، قطعه بندی FNEA، طبقه بندی شی گرا، تصاویر ماهواره ای با توان تفکیک بالا
  • سروش جهاندیده *، محمد سعادت سرشت صفحات 23-35
    سنجنده ی کینکت به دلیل برخورداری از هزینه ی پایین و قابلیت استفاده از آن در موقعیت ها و شرایط متفاوت، می تواند به عنوان ابزاری کارا برای مدل سازی سه بعدی بدن انسان بکار گرفته شود. از کاربردهای ساخت مدل سه بعدی بدن انسان می توان به ایجاد اتاق پرو مجازی برای انتخاب و مشاهده لباس، تولید کاراکترهای گرافیکی در بازی های رایانه ای، ساخت آواتار شخصی برای ارتباطات مجازی، تولید پویانمایی و فیلم سه بعدی، ایجاد واقعیت افزوده در گرافیک رایانه و مانند آن اشاره نمود. از اینرو در این مقاله برای اولین بار در کشور، روشی سریع و ارزان به منظور مدل سازی سه بعدی بدن انسان با استفاده سنجنده ی کینکت ارائه و پیاده سازی شده است. لازم به ذکر است که مدل سازی سه بعدی بدن انسان، بخصوص با استفاده از یک سنجنده ی کینت، با دو چالش اساسی شامل کاهش کیفیت داده های اولیه با افزایش فاصله و همچنین عدم ثبات پیکره شخص در طول اسکن روبرو می باشد. به منظور حل چالش اول، سنجنده در فاصله نزدیکتری به شخص قرار گرفت و از قابلیت چرخش آن و اسکن در زوایای متفاوت برای پوشش بدن فرد استفاده شد. برای حل چالش دوم، از هم مرجع سازی غیرصلب استفاده شد که در آن علاوه بر هم مرجع سازی صلب ابرنقاط فریم های کینکت، تغییر شکل بدن فرد در حین عملیات برداشت داده نیز لحاظ گردیده است. پس از هم مرجع سازی ابر نقاط حاصل از اسکن بدن فرد که از هشت ایستگاه دورتادور فرد و در سه زاویه ارتفاعی برداشت شده است، این داده ها تلفیق شده و یک رویه یا مش[1] بافت دار به آن برازش داده شد تا نمایشی سبک و دقیق با ظاهری واقعی از بدن فرد بدست آید. نتایج تجربی، قابلیت بالای سیستم طراحی شده را نشان می دهد که عبارتند از هزینه ی پایین بواسطه استفاده از یک سنجنده ی کینکت نسبتا ارزانقیمت، قابلیت اسکن در فاصله ی کمتر بدون نیاز به تجهیزات اضافی، مدلسازی نسبتا دقیق در نواحی پایین پاها و دستها که از حرکات شدیدتری برخوردارند و حفظ جزئیات نظیر چین و چروک ها و مدل مو. نتایج آزمونها نشان می دهد توسط این سیستم می توان بدن یک فرد با قد 1.8 متر را از فاصله 1.4 متری (حدود 80% قد شخص) اسکن نمود و به ابر نقاط با تراکم متوسط 3.7 میلی متر با دقت مکانی 1.4 میلیمتر (انحراف معیار ضخامت ابر نقطه) دست یافت.
    کلیدواژگان: مدل سازی سه بعدی بدن انسان، سنجنده کینکت، هم مرجع سازی غیرصلب، اسکنر های سه بعدی
  • ناصر عبدی *، علیرضا آزموده اردلان، روح الله کریمی صفحات 37-47
    دانستن چگونگی رفتار یونسفر یک فاکتور مهم در تعیین موقعیت با GPS است. در این مقاله مشاهدات 43 ایستگاه دائمی شبکه ژئودینامیک سراسری ایران (IPGN) به همراه مشاهدات حدود 180 ایستگاه IGS توسط نرم افزار برنیز پردازش شدند و برای تولید کردن مدلهای یونسفری که نمایشگر میزان محتوای مجموع الکترونی (TEC) هستند، از بسط به هارمونیکهای کروی تا درجه و مرتبه 15 استفاده شد. در این مدلسازی فرض بر آن است که تمامی الکترونهای آزاد بر روی یک لایه کروی نازک که ارتفاع آن می تواند از 250 تا 450 کیلومتر متغیر باشد، واقع شده اند. نتایج برای ارتفاع 450 کیلومتر با رزولوشن زمانی دو ساعته مطابق با استانداردهای IGS حاصل شده و مقادیر ماکزیمم TEC در جنوب ایران از حدود 5 TECU (نیمه شب) تا 22 TECU (نیمه روز) می باشند. این مقادیر برای روز 22 ماه جون از سال 2009 است. سپس مقادیر TEC محاسبه شده برای تصحیح کردن داده های تک فرکانس در دو شیوه تعیین موقعیت مطلق و نسبی بکار گرفته شدند. در شیوه مطلق بهبود قابل توجهی در هردو مولفه مسطحاتی و ارتفاعی در صورت استفاده از مدل IRIM نسبت به مدل IGS حاصل می شود. همچنین در شیوه نسبی، مقایسه بین راه حلهای L1 و عاری از اثر یونسفر (L3) نشان می دهد که اثر یونسفر شبکه را دچار انقباض می کند. همچنین نتایج راه حل L1 تصحیح شده با استفاده از مدل بهبود یافته در سطح ایران (IRIM) نسبت به استفاده از مدل جهانی IGS به نتایج راه حل L3 نزدیکتر است و میزان این انحراف در مولفه مختصاتی افقی برای طول مبناهای چند صد کیلومتری به طور متوسط بهتر از 10 سانتی متر است.
    کلیدواژگان: تعیین موقعیت، نقشه های یونسفر، هارمونیک های کروی، GPS، IPGN، TECو DCB
  • منیره شمشیری *، مهدی آخوندزاده هنزایی صفحات 49-58
    وقوع زلزله علاوه بر تغییر در هندسه و فیزیک پوسته زمین تاثیرات دیگری را نیز به همراه دارد. از آن جمله، تاثیر بر لایه یونسفر می‍باشد که خود را به صورت تغییر در میزان الکترون، چگالی یون ها، میدان های الکتریکی و مغناطیسی این لایه نشان می دهد. هر پارامتر ژئوفیزیکی و ژئوشیمیایی در لایه های لیتوسفر، اتمسفر و یونسفر زمین که قبل از وقوع زلزله تغییراتی در آن پدید آید به عنوان پیش نشانگر شناخته می شود.
    با پردازش داده های GPS می توان به میزان محتوای کل الکترون (Total Electron Content) لایه یونسفر دست یافت. در سیستم های پیچیده و غیرخطی استفاده از روش های کلاسیک مانند میانگین، برای بازشناسی الگو و پیش بینی سری های زمانی بسیار دشوار است، به همین دلیل در این مقاله سعی گردیده است از روش های هوش مصنوعی همچون شبکه عصبی مصنوعی برای تشخیص و بازسازی الگوی تغییرات TEC استفاده گردد. در همین راستا زلزله اهر آذربایجان شرقی (21 مرداد 1391) و زلزله کاکی بوشهر (20فروردین ماه 1392) مورد بررسی قرارگرفته است. ابتدا با استفاده از نرم افزار Bernese و به روش PPP(Precise Point Positioning) مختصات ایستگاه ها محاسبه گردید و سپس با استفاده از مدل جهانی مقادیر TEC به دست آمد. نتایج حاصل، ناهنجاری هایی را چند روز قبل و بعد از زلزله نشان می دهد که بیانگر آن است که الگوریتم شبکه عصبی مصنوعی به خوبی توانسته آنامولی های موجود را آشکارسازی نماید. همچنین مقایسه مقادیر TEC به دست آمده از ایستگاه های زمینی با مدل استاندارد جهانی از همبستگی بالایی برخوردار می باشند.
    کلیدواژگان: زلزله، یونوسفر، آنومالی، TEC، شبکه عصبی مصنوعی
  • سیدعبدالرضا سعادت *، عبدالرضا صفری صفحات 59-71
    مدل سازی میدان گرانی زمین بر اساس بازسازی ضرایب هارمونیک های کروی تا درجه و مرتبه مشخص نیازمند داده هایی با تراکم و کیفیت مناسب مطابق معیار شانون - نایکوئیست در کل کره زمین بوده و این کار مستلزم صرف هزینه و زمان زیاد جهت جمع آوری و پردازش داده ها می باشد. بر اساس تئوری نمونه برداری فشرده (CS) می توان نرخ نمونه برداری را بطور قابل ملاحظه ای کاهش داده و یک سیگنال را بصورت تنک با تعداد کمتری از داده ها تنها با استفاده از ضرایبی که سهم عمده ای در بازسازی آن دارند، تقریب زد. معمولا در اینگونه مسائل برای مدل سازی میدان گرانی زمین با یک مساله بدوضع مواجه بوده و علاوه بر آن سطح تنکی سیگنال نیز بطور دقیق مشخص نیست که این امر امکان استفاده از روش های متداول نمونه برداری فشرده را مشکل می سازد. در این مقاله روش جدیدی به نام الگوریتم پیگیری انطباقی قائم پایدار (SOMP) جهت مدل سازی میدان گرانی زمین با تقریب تنک ضرایب هارمونیک های کروی ارائه شده که علاوه بر قابلیت انطباق با مسائل بدوضع می تواند سطح تنکی مساله را نیز بدرستی مشخص نماید. نتایج عددی حاصل از تعیین ضرایب هارمونیک های کروی تا درجه و مرتبه 36 نشان دهنده آن است که الگوریتم فوق قادر به بازسازی میدان گرانی زمین با دقت مدنظر با تعداد نمونه برداری 50 درصد کمتر از نرخ نایکوئیست می باشد.
    کلیدواژگان: مدل سازی میدان گرانی، هارمونیک های کروی. مساله بدوضع، نمونه برداری فشرده و تقریب تنک
  • علی اشرف زاده افشار *، غلامرضا جودکی، محمدعلی شریفی صفحات 73-84
    داده های Level-2 ماهواره های GRACE برای برآورد تغییرات ماهیانه ذخایر آب منطقه جنوب ایران طی دوره مطالعاتی اوت 2002 تا دسامبر 2010 مورداستفاده قرارگرفته است. نتایج نشان دهنده کاهش شدید روند ذخایر آب بر روی غرب و جنوب ایران است. با تصحیح اثر دریای خزر و خروجی مدل های هیدرولوژی GLDAS و CLM4 دریافتیم که بیشتر کاهش آب در طولانی مدت به دلیل کاهش آب های زیرزمینی است. برای اعتبارسنجی نتایج، با مشاهدات ماهیانه چاه های پیزومتری جنوب کشور مقایسه شد. اثرات هیدرولوژی مانند رطوبت خاک، برف، آب های سطحی با استفاده از مدل GLDAS از روی ذخایر آب مشاهدات GRACE حذف می شود. نتایج نشان دهنده کاهش آب زیرزمینی در حدود 45 کیلومتر مکعب در هر سال می باشد. همچنین اثرات انسانی کاهش آب های زیرزمینی با حذف تغییرات طبیعی آب های زیرزمینی از روی مشاهدات GRACE، با استفاده از مدل CLM4 پیش بینی می شود. این نتایج نشان دهنده این است که بعد از وقوع خشک سالی سال 2007، کاهش آب های زیرزمینی توسط بشر به طور قابل توجهی کم شده است.
    کلیدواژگان: GRACE، داده های Level، 2، مدل GLDAS، مدل CLM4، مشاهدات چاه ها
  • رحیم جوادی آذر، بهزاد وثوقی، میر رضا غفاری رزین * صفحات 85-93
    ایران کشوری لرزه خیز بوده و وجود زمین لرزه های تاریخی در آن نشان دهنده این مطلب است که فلات ایران از لحاظ ژئودینامیکی مستعد زمین لرزه های بزرگ می باشد. توجه به این موضوع محققین را بر آن داشته که از روش های مختلف به مطالعه ژئودینامیک کشور ایران بپردازند. بدین منظور در این مقاله به بررسی یک معیار عددی جدید به نام Novozhilov برای محاسبه دوران متوسط، با روش اجزای محدود پرداخته شده است. برای رسیدن به این هدف ابتدا تنسور استرین و دوران خطی، روی سطح پوسته زمین، بر مبنای نظریه پوسته در مکانیک محیط های پیوسته با استفاده از روش اجزای محدود محاسبه می شود و سپس معیار دوران متوسط با استفاده از مولفه های تنسور استرین و دوران خطی استخراج می شود. نتایج بدست آمده از تنسور استرین و دوران خطی با استفاده از مشاهدات ژئودتیکی (GPS) سال 2008 که در چهار اپوک سه ماهه صورت گرفته، تطابق خوبی با نتایج کارهای قبلی دارد. نتایج بدست آمده از معیار دوران متوسط Novozhilov نشان دهنده آن است که بیشترین دوران راست گرد مربوط به منطقه ای در جنوب ایران شامل ایستگاه های GLMT ،BABS ،JASC (3.113deg/Myr) می باشد. همچنین بیشترین میزان دوران چپ گرد مربوط به منطقه ای در شمال ایران شامل ایستگاه های MAVT ،BIAJ ،GRGN (-2.509deg/Myr) است. ویژگی مهم بررسی معیار دوران متوسط Novozhilov روی پوسته زمین نسبت به بررسی این معیار در سیستم مختصات کارتزین، این است که نتایج بدست آمده روی پوسته بسیار نزدیک به نتایج مطالعات قبلی که روی دوران بلوک ها در مناطق مختلف ایران صورت گرفته، می باشد. دقت بدست آمده برای این معیار روی پوسته در اکثر مناطق قابل قبول می باشد.
    کلیدواژگان: آنالیز تغییر شکل پوسته زمین، تنسور استرین، تنسور دوران، دوران متوسط (Novozhilov)
  • سید ساسان بابایی *، زهرا موسوی، مه آسا روستایی صفحات 95-111
    بررسی های انجام گرفته نشان می دهد که یک قسمت بزرگی از دشت قزوین به علت برداشت بی رویه از آب های زیرزمینی برای مقاصد کشاورزی، شرب و صنعتی با مسئله فرونشست مواجه است. لذا این پژوهش مطالعه ای روی مدل کردن الگو و نرخ فرونشست اتفاق افتاده در دشت قزوین بین سال های 2003 تا 2010 با استفاده از تکنیک تداخل سنجی راداری می باشد. به منظور آنالیز سری زمانی فرونشست اتفاق افتاده در این دشت، از آنالیز سری زمانی PS و SBAS استفاده نمودیم. داده های مورد استفاده شامل دو مجموعه داده مربوط به مدار پایین گذر 192 و 421 ماهواره انویست که بین سال های 2003 تا 2010 اخذ شده، می باشند. نتایج حاصل از تحلیل سری زمانی تداخل سنجی، یک فرونشست پیوسته و قابل ملاحظه ای را در این منطقه نشان می دهند. هر دو سری زمانی تداخل سنجی PS و SBAS ماکزیمم دامنه فرونشستی حدود 30 تا 35 میلی متر در سال را مشخص می کنند و این که نتایج هر دو روش همخوانی خیلی خوبی با همدیگر دارند. مقایسه بین وسعت و الگوی فرونشست اتفاق افتاده در این منطقه، حاصل از نتایج تکنیک تداخل سنجی راداری و موقعیت و تراکم چاه های برداشت آب های زیرزمینی در این دشت نشان می دهد که فرونشست درست در همان مناطقی که تراکم این چاه ها زیاد است، اتفاق افتاده است.
    کلیدواژگان: سری زمانی تداخل سنجی راداری، پراکنش کننده های دائمی، طول خط مبنای کوتاه، فرونشست، دشت قزوین
  • محمد شریف، علی اصغر آل شیخ * صفحات 113-125
    حرکت اشیاء در بافت های جغرافیایی صورت می پذیرد. بافت به طور مستقیم یا غیرمستقیم بر روی فرآیند حرکت تاثیر می گذارد و منجر به بازخوردهای متفاوتی در اشیاء متحرک می شود. بنابراین، در نظر گرفتن بافت در مطالعات حرکت و توسعه مدل های حرکتی بسیار حائز اهمیت است. در این رابطه، بکارگیری بافت در اندازه گیری تشابه حرکت اشیاء و خطوط سیرشان نقش مهمی ایفا می کند. خطوط سیر اشیاء نقطه ای، در کنار ابعاد مکانی و زمانی، جنبه دیگری دارند که بعد بافت نامیده می شود. این بعد تا به امروزه کمتر مورد توجه بوده است و تحقیقات معدودی در تجزیه و تحلیل خطوط سیر به آن پرداخته اند. بدین منظور، این تحقیق روشی را معرفی می کند که در آن ابعاد مکانی، زمانی و بافتی و همچنین ترکیبی از آن ها می توانند در فرآیند اندازه گیری خطوط سیر مورد بررسی قرار گیرند. در کنار سادگی، این روش به شکلی توسعه داده شده که کوچک ترین تغییرات در هرکدام از ابعاد را به حساب آورد. به منظور اعتبارسنجی عملکرد روش معرفی شده و بررسی نقش داده های بافتی در اندازه گیری تشابه خطوط سیر، آزمایش های متنوعی بر روی داده های حرکتی هواپیما پیاده سازی شده است. به طور خاص، از مختصات جغرافیایی و ارتفاع هواپیما به عنوان بعد مکانی، زمان سفر به عنوان بعد زمانی و سرعت هواپیما، سرعت باد و جهت باد به عنوان بعد بافتی در این آزمایش ها بهره گرفته شده است. نتایج موید توانمندی روش ارائه شده در اندازه گیری تشابه خطوط سیر و همچنین حساسیت آن به تغییرات خفیف در ابعاد است. ضمنا، از نتایج می توان به این نکته پی برد که بافت هم موجب افزایش و هم کاهش مقدار تشابه خطوط سیر می شود. این تاثیر در میانگین مقادیر نسبی شباهت های داده های حرکتی هواپیما در ابعاد مکانی (0.60)، مکانی-زمانی (0.51) و مکانی-زمانی-بافتی (0.46) قابل مشاهده است.
    کلیدواژگان: حرکت، خط سیر، اندازه گیری تشابه، بافت، اشیاء متحرک
  • رامین تهرانچی *، خسرو مقتصد آذر، حمیدرضا نانکلی صفحات 127-135
    سری های زمانی GPS شامل یک ترند خطی، حرکات پریودیک با فرکانس های سالیانه و نیم سالیانه، آفست ها و یکسری رفتار های دیگر تحت عنوان نویز می باشند. با توجه به کاربرد های متفاوت سری های زمانی مانند بررسی حرکات تکتونیک، تغییر پوسته زمین و دینامیک زلزله و غیره باید سری های زمانی با دقت بالایی تقریب گردند. برای این منظور لازم است که مولفه های سیستماتیک موجود در مدل تابعی با دقت بالایی تعیین شوند. در این تحقیق علاوه بر موارد ذکر شده، اثر زلزله نیز در سری های زمانی در نظر گرفته شده است. با توجه به اینکه لرزه خیز ترین منطقه شمال ایران منطقه البرز است، 25 ایستگاه دائمی این منطقه (تقریبا با پوشش زمانی بین سال های 2005 تا 2013 میلادی) برای مطالعه انتخاب گردیده است. برای کشف اثر زلزله، با توجه به نمایش هندسی رفتار سری زمانی و همچنین بررسی زمین لرزه های رخداده در منطقه، به روش آزمون و خطا زمین لرزه های موثر در رفتار سری های زمانی شناسایی شده است. نتایج حاصل بیانگر رفتار شبیه به هم ایستگاه ها (وقوع آفست در زمان های مشترک و تاثیر مشابه زلزله) می باشد که علت آن، انتشار اثرات سیستماتیک از یک ایستگاه به ایستگاه دیگر در هنگام پردازش است. همچنین در صورتیکه ماتریس کواریانس مشاهدات بصورت ترکیب سه نویز سفید، فلیکر و گام تصادفی در نظر گرفته شود، آنالیز نویز سری های زمانی با استفاده از روش برآورد مولفه های واریانس (به روش کمترین مربعات)، بیانگر این مورد است که صرفنظر کردن از اثر زلزله اثر خود را بصورت حضور نویز گام تصادفی، به ترتیب در 88، 12 و 60 درصد سری های زمانی مولفه های شمالی، شرقی و ارتفاعی نشان خواهد داد. در صورتیکه اثر زلزله نیز در نظر گرفته شود، نویز گام تصادفی، به ترتیب در 12، 12 و 36 درصد سری های زمانی مولفه های شمالی، شرقی و ارتفاعی دارای مقدار مثبت خواهد بود. همچنین با توجه به رفتار مشابه سری های زمانی پیشنهاد می شود که یک باز پردازش برای آن ها انجام گیرد.
    کلیدواژگان: سری های زمانی GPS، آنالیز نویز، روش کمترین مربعات
  • حسن امامی *، عبدالرضا صفری، برات مجردی صفحات 137-153
    گسیلمندی سطح زمین از جمله متغیرهایی است که در دامنه وسیعی از مطالعات و تحقیقات علوم زمین و محیط زیست کاربرد دارد و یکی از پارامترهای اساسی در برآورد دمای سطح می باشد. فناوری سنجش از دور، امکان پایش این کمیت را در سطح وسیعی فراهم می آورد. تغییرات گسیلمندی وابسته به پارامترهای سطح (نظیر بافت، توپوگرافی، رطوبت) و سنجنده ( نظیر قدرت تفکیک مکانی، تابع پاسخ طیفی ، و طول موج موثر باندها ) می باشد. در این تحقیق، یک روش بهبود یافته مبتنی بر شاخص گیاهی نرمال شده جهت برآورد گسیلمندی سطح بر روی داده های لندست 8 پیشنهاد گردیده است. در روش پیشنهادی، گسیلمندی باند های حرارتی برای مناطق خاک بایر بصورت تابعی از بازتاب باندهای انعکاسی تصحیح اتمسفری شده در محدوده طیفی 0.4 تا 2.29 میکرومتر بیان شده است. کارایی روش پیشنهادی بصورت عملی بر روی داده های لندست 8 اجرا گردید و گسیلمندی حاصل با دو محصول گسیلمندی سنجنده هوابرد پیشرفته با رادیمترسنج انعکاسی و حرارتی( ASTER) مقایسه و اعتبارسنجی شد. نتایج نشان داد که گسیلمندی حاصل از روش بهبود یافته پیشنهادی در باند 10 حرارتی لندست 8 در مقایسه با محصول گسیلمندی متناظر تصویر بررسی اول و دوم ASTER به ترتیب دارای خطای 0.76% و 0.75% با در نظر گرفتن پارامتر ریشه میانگین مربعات خطا می باشد، همچنین این خطا در باند 11 حرارتی به ترتیب دارای مقدار 1.49% و 1.06% محاسبه گردید. برخلاف روش های قبلی، روش پیشنهادی نه تنها با دقت بهتری گسیلمندی سطح را بصورت تابعی از انعکاس عوارض مختلف سطح تخمین می زند، بلکه توابع پاسخ طیفی باندهای حرارتی و انعکاسی را در برآورد گسیلمندی سطح مد نظر قرار می دهد. همچنین، روش پیشنهادی رابطه ضعیف بین گسیلمندی و بازتاب فقط باند قرمز در روش های قبلی را بدلیل استفاده از بازتاب همه باندهای انعکاسی تقویت می نماید و بر روی اغلب سنجنده ها قابل اجراست.
    کلیدواژگان: گسیلمندی سطح زمین، دمای سطح زمین، لندست 8، شاخص گیاهی نرمال شده
  • شکوه دره شیری، مهدی فرنقی * صفحات 155-171
    انتشار اطلاعات مکانی به صورت پراکنده و غیر متمرکز در شبکه وب در حال افزایش است. بنابراین، کشف و جستجوی منابع مفید و به روز به شیوه ای کارآمد و با صرف کمترین زمان نیز اهمیت می یابد. درگاه های مکانی (ژئوپورتال ها) امکان جستجو و بهره برداری از منابع مکانی را برای کاربران فراهم می کنند. کشف و جستجو در درگاه های مکانی موجود محدود به جستجوی متنی بر روی المان هایی از فراداده نظیر کلیدواژه ها، عنوان و چکیده می باشد. محدودیت های جستجوی متنی باعث می گردد که نتایج حاصل نتواند به نحو مناسبی نیازهای کاربر را برآورده سازد. از طرفی توجه به خواست و علایق کاربر در کنار حرکت فناوری در جهت کاربرمحوری از جمله ویژگی های برنامه های کاربردی وب مبنا به شمار می روند. افزودن قابلیتی در درگاه مکانی که بتواند با شناخت رفتار کاربر و در نظر گرفتن خواست و علایق او، مناسب ترین منابع را به کاربر پیشنهاد دهد می تواند افزایش کارایی درگاه مکانی و در نتیجه رضایت بیشتر کاربران را در پی داشته باشد. در این مقاله راه کاری جدید جهت افزودن قابلیت توصیه منابع مکانی متناسب با علایق کاربر به وی در درگاه مکانی توسط سیستم های توصیه گر ارائه شده است. سیستم های توصیه گر، با استفاده از دانش استخراج شده از تعاملات گذشته کاربران می توانند کاربر را در جهت تامین منابع و نیازهای مورد علاقه خود هدایت کنند. درگاه مکانی طراحی شده در این مقاله می تواند از بین تعداد انبوه منابع مکانی، مناسب ترین موردها را با توجه به خواست و علاقه کاربران پیشنهاد دهد. روش پالایش مشارکتی برای استخراج شباهت کاربران و شباهت منابع به منظور پیشنهاد مناسب ترین منابع به کاربر مورد استفاده قرار گرفته است. همچنین برای عملکرد بهتر سامانه درگاه مکانی توصیه گر توابع ریاضی متعددی با درنظر گرفتن پارامترهایی نظیر فاصله کاربر و منبع، کشور، زبان و ویژگی های منابع مکانی تعریف شده اند. این توابع مسئله شروع سرد در روش پالایش مشارکتی را به نحو شایسته ای مرتفع می سازند. برای بررسی کارکرد روش پیشنهادی، یک نمونه سامانه جستجوی منابع مکانی توصیه گر پیاده سازی شده که نحوه ی کار و مزایای استفاده از سیستم توصیه گر در درگاه مکانی را تبیین می نماید. نتایج حاصل بیان گر عملکرد بهتر درگاه مکانی توصیه گر در مقایسه با درگاه های مکانی رایج می باشد.
    کلیدواژگان: درگاه مکانی (ژئوپورتال)، سیستم توصیه گر، پالایش مشارکتی، سرویس مکانی، داده مکانی، شروع سرد
  • مجید اسماعیل زاده *، جلال امینی صفحات 173-185
    با توجه به هندسه تصویربرداری تصاویر SAR، این تصاویر شامل خطاها یا اعوجاجاتی هندسی هستند که باعث می شود اطلاعات تصاویر دارای خطا باشند، لذا باید تصاویر کالیبراسیون هندسی شوند. از آن جاییکه رادارها به صورت پهلونگر تصویربرداری می کنند، خطاهایی نظیر سایه، کوتاه شدگی[1] و همپوشانی[2] به وجود می آید. برای اینکه بتوان این خطاها را تصحیح کرد، باید اطلاعاتی در ارتباط با موقعیت سنجنده، هندسه تصویربرداری و ارتفاع هدف نسبت به بیضوی در دسترس باشد. در این مقاله روشی برای تصحیح هندسی تصاویر SAR پیشنهاد می شود که از معادلات اساسی برد و داپلر استفاده می کند و برای پیاده سازی روش مورد استفاده در این مقاله، از تصاویر سنجنده ALOS-PALSAR استفاده می شود. در این روش، برای زمین مرجع کردن تصویر، از سه نوع مختلف مدل ارتفاعی رقومی DEM[3] منطقه استفاده می شود که علاوه بر DEM، پارامترهای دقیق مداری سنجنده نیز مورد نیاز است. در روش این مقاله ابتدا مدل ارتفاعی رقومی در راستای برد و آزیموت منتقل می شود که با اعمال این فرآیند، خطاهای ناشی از توپوگرافی نظیر کوتاه شدگی و همپوشانی نیز در این DEM منتقل شده حذف می شوند. سپس موقعیت تصویر اصلی روی تصویر این DEM پیدا و با استفاده از بازنمونه برداری با انواع تبدیلات دوبعدی، تصویر اصلی بر روی این DEM منطبق می شود. پس از اعمال فرآیندهای مذکور، خروجی تصویری زمین مرجع شده است که خطاهای هندسی آن حذف شده است. مزیت روش بیان شده در این مقاله، عدم نیاز به هیچ گونه نقطه کنترل و همچنین عدم نیاز به پارامترهای وضعیت و دورانی سنجنده است. از آنجاییکه قدرت تفکیک در راستای برد زمینی تصاویر مورد استفاده حدود 30 متر است، تصویر زمین مرجع شده نیز دارای همین قدرت تفکیک بوده و با استفاده از روش ذکر شده در این تحقیق در حالت مسطحاتی دارای دقتی در حدود 20 متر (کمتر از یک پیکسل) و در حالت ارتفاعی 30 متر برآورد می شود.
    کلیدواژگان: زمین مرجع کردن، کوتاه شدگی، همپوشانی، سایه، برد، داپلر، مدل ارتفاعی رقومی، معادلات تبدیل
  • افسانه قدیمی *، خسرو مقتصد آذر، حمیدرضا نانکلی صفحات 187-198
    البرز رشته کوه مرتفعی است که به صورت کمانی از انتهای جنوبی تالش تا کپه داغ کشیده شده است. البرز، حرکت کلی بین دریاچه خزر و ایران مرکزی را در خود جای داده است و به نظر می رسد یک کوتاه شدگی در سرتاسر البرز در حال رخ دادن است. با دانستن نرخ کرنش در یک منطقه با تکتونیک فعال، به نوع، جهت و مقدار تغییر شکل در منطقه پی می بریم و می توانیم پردازش های بهتری بر روی تکتونیک منطقه داشته باشیم، همچنین تعیین و بررسی تنسور کرنش پوسته زمین، امکان توصیف فرایندهای ژئودینامیکی مانند تجمع استرس که یک پارامتر مهم در ارزیابی خطر لرزه ای به شمار می آید را فراهم می آورد. در این مطالعه با دو روش، نرخ کرنش برای منطقه البرز محاسبه شد: 1- با استفاده از داده های لرزه ای سالهای 1900 تا 2010 میلادی و با روش کاسترو. 2- با استفاده از داده های ژئودتیکی سالهای 2005 تا 2009 میلادی و با روش المان محدود. با مقایسه نرخ کرنش لرزه ای و ژئودتیک می توانیم تغییر شکل لرزه- ای را از شبه لرزه ای تشخیص دهیم. در سرتاسر البرز حرکت امتداد لغز با مولفه غالب فشارش مشاهده می شود. نرخ بزرگ استرین لرزه- ای در البرز غربی نشان می دهد که بیشتر تغییر شکل در این منطقه، لرزه ای است. برعکس، در البرز مرکزی و شرقی، نرخ استرین لرزه- ای نسبت به نرخ استرین ژئودتیکی کوچک است که می تواند نشان دهنده تغییر شکل شبه لرزه ای باشد و یا اینکه احتمال وقوع زمین لرزه بزرگ در آینده نزدیک وجود دارد. نتایج به دست آمده از هر دو روش از نظر نوع و جهت تغییر شکل مطابقت خوبی با هم و با مطالعات قبلی دارد.
    کلیدواژگان: نرخ استرین لرزه ای، نرخ استرین ژئودتیکی، محورهای ماکزیمم کشش و فشارش، کاتالوگ لرزه ای
  • زاهده ایزکیان *، یزدان عامریان، محمد سعدی مسگری صفحات 199-209
    با پیشرفت روز افزون تکنولوژی های جمع آوری اطلاعات و امکان دسترسی به حجم عظیمی از داده همواره نیازمند روش هایی برای تجزیه و تحلیل این حجم داده خام و استخراج اطلاعات مفید از آن می باشیم. امروزه خوشه بندی داده به عنوان یکی از روش های آنالیز و ساده سازی مجموعه داده های بزرگ، مورد توجه بسیاری از محققین قرار گرفته است. در این میان خوشه بندی سری های زمانی با دقت مورد قبول، حائز اهمیت بسیاری می باشد. در روش پیشنهادی از ترکیب الگوریتم تکاملی دیفرانسیلی و روش خوشه Fuzzy-Cmeans به عنوان یکی از الگوریتم های خوشه بندی مطرح و شناخته شده، برای خوشه بندی سری های زمانی استفاده گردید. در این روش برای کاهش مجهولات مسئله و در نتیجه افزایش کارایی الگوریتم، تکنیک های مختلف نمایش داده های مکانی-زمانی را مورد بررسی قرار دادیم و از این میان روش ضرایب DCT را برای کاهش مجهولات مراکز خوشه ها انتخاب کردیم. بدین مفهوم که الگوریتم تکاملی دیفرانسیلی انتخابی برای خوشه بندی، به جای یافتن تمامی المان های مراکز خوشه های موجود در مجموعه داده، تنها تعداد محدودی از ضرایب DCT این مراکز را یافته و سپس با استفاده از همین ضرایب محدود مراکز خوشه ها بازسازی می شوند. با در نظر گرفتن تابع فاصله ی Dynamic Time Warping و انتخاب تابع بهینه سازی مربوط به روش خوشه بندی Fuzzy-Cmeans، روش پیشنهادی بر روی دو مجموعه داده پیاده سازی شد و با روش خوشه بندی FCM و روش خوشه بندی مبتنی بر الگوریتم تکاملی دیفرانسیلی بدون استفاده از ضرایب DCT مقایسه گردید. روش پیشنهادی کندتر از الگوریتم خوشه بندی Fuzzy-Cmeans بوده اما به دلیل استفاده از روش تبدیل کسینوسی گسسته برای کاهش مجهولات، سریع تر از روش خوشه بندی معمول مبتنی بر الگوریتم تکاملی دیفرانسیلی عمل می کند. همچنین نتایج حاصل از مقایسه ی این سه روش نشان دهنده ی عملکرد بهتر روش پیشنهادی نسبت به دو روش دیگر می باشد.
    کلیدواژگان: سری زمانی، خوشه بندی، الگوریتم تکاملی دیفرانسیلی، روش خوشه بندی Fuzzy، Cmeans، تبدیل کسینوسی گسسته
  • مهدی غریبی *، حسین عارفی، حیدر راستی ویس، حسین هاشمی صفحات 211-225
    در حال حاضر، به روزرسانی پایگاه داده مکانی با اتکا به اطلاعات موجود در پایگاه داده و استفاده از تصاویر هوایی جدید، از موضوعات مهم در حیطه مهندسی ژئوماتیک می باشد. اطلاعات موجود در نقشه قدیمی می تواند به عنوان داده آموزشی در طبقه بندی، ایجاد مدل مفهومی، کاهش فضای جستجو و نیز در برآورد پارامتر های مجهول، مورد استفاده قرار گیرد. لذا، در این تحقیق، از اطلاعات هندسی پلیگون های نقشه قدیمی جهت کاهش فضای جستجو، بهینه نمودن مقداردهی اولیه به منظور بهبود فرآیند استخراج ساختمان مبتنی بر مدل های منحنی فعال و نیز عدم نیاز به الگوریتم های فیلترینگ داده های ارتفاعی، استفاده خواهد شد. این فرآیند در یک رویکرد سلسله مراتبی و مبتنی بر ترکیبی از دو مدل منحنی فعال هندسی انجام می گیرد که موجب رفع نقص این مدل ها در استخراج ساختمان های با رفتار طیفی و هندسی متفاوت می گردد. در روش پیشنهادی، هر یک از پلیگون های قدیمی، به طور مجزا، به عنوان منحنی اولیه به یک مدل هندسی ناحیه مبنا معرفی می شوند. پس از اجرای مدل بر روی بخشی از DSM، متناسب با موقعیت پلیگون قدیمی و شناسایی ساختمان از DSM، آشکارسازی تغییرات هندسی رخ داده، انجام می گیرد. به منظور بهبود مرزهای استخراج شده، نتایج حاصله به یک مدل هندسی لبه مبنای مقید، معرفی شده و بر روی اطلاعات طیفی اجرا می گردد. در نهایت، مرزهای بهبودیافته طی فرآیند خلاص ه سازی و منظم سازی به روش MBR، در پایگاه داده ذخیره می گردند. ارزیابی نتایج، موفقیت روش پیشنهادی در مناطق شهری در استخراج ساختمان های با رفتار طیفی و هندسی متفاوت را نشان می دهد. به طوری که صحت کلی فرآیند آشکارسازی تغییرات هندسی رخ داده و ضریب کاپا به ترتیب 79درصد و 74درصد بوده و صحت نسبی مرزهای ساختمانی استخراج شده برابر 92 درصد می باشد.
    کلیدواژگان: به هنگام سازی نقشه ساختمان ها، آشکارسازی تغییرات هندسی و به روزرسانی نقشه، مدل های منحنی فعال
  • جلال کرمی، سجاد دلفان بیرانوند *، علی شمس الدینی صفحات 227-238
    در سطح یک شهر ،شناسایی مناطق با ریسک بالای ابتلا به یک بیماری خاص و بررسی رفتار هربیماری در دوره های زمانی مختلف، اهمیت فراوانی درکنترل بیماری ها و مدیریت سلامت در جامعه دارد. در این تحقیق، روند مکانی مرگ و میر بیماری مبنا در مناطق مختلف شهر تهران با محوریت تغییرات زمانی در بازه های فصلی وسالیانه در دوره بیست ساله از 1372تا 1392 مطالعه شد. تحلیل های زمین آماری جهت بررسی وجود ارتباط بین بیماری های مختلف در یک زمان خاص و در یک مکان با مناطق اطراف آن، ابزار های مختلفی دارند. شاخص محلی موران(LOCAL MORAN’S I INDEX)با تحلیل همسایگی و ارزیابی بیماری ها و پیدا کردن فاصله موثر همسایگی در زمان های مختلف، به شناسایی نقاط با ریسک بالا(HOT SPOT)می پردازد. شاخص موران نحوه ارتباط یک متغیر در فضا و زمان با مناطق همسایه و نقاط داغ بیماری هاو کلاسه بندی آن ها در خوشه های مکانی را شناسایی می کند. در سطح یک شهر با وجود مساحت ثابت مناطق ،شعاع همسایگی ممکن است در بازه های زمانی مختلف بسته به ماهیت بیماری و تاثیر پذیری آن از عوامل محلی و یا سراسری متفاوت باشد.نتایج بر روی دوازده گروه مرگ و میر بیماری مبنا نشان داد که هر از گروه به میزان متفاوتی با مکان زندگی دارای ارتباط می باشد. این ارتباط بین مناطق مختلف ممکن است در حالت خوشه ایبودن مناطق و یا پراکندگی آن ها وجود داشته باشد. این مقدار برای پنج گروه بیماری های مغزی، کبدی، گوارش و خونریزی،سرطان و سرطان معده دارای ارتباط معنادارتری با عامل مکان در ابعاد یک شهر بوده است. شایان ذکر است که این ارتباط ممکن است در ابعادی بزرگتر از شهر دارای مقداری متفاوت باشد. سپس با بکارگیری تحلیل های زمانی برای پنج بیماری که دارای شاخص مکانی بالاتری بودند، وابستگی هر یک از بیماری ها در بازه های زمانی سالانه و تغییرات هر بیماری با فصول مختلف بررسی شد. نتایج حاکی از تفاوت شعاع همسایگی برای بیماری های مختلف در فصول مختلف و همچنین تفاوت مناطق با ریسک بالای هر یک از بیماری ها با تغییر فصل و تغییر پارامترهای محیطی بود. درروندسالانه طبق نتایج در دوره ی بیست ساله، وابستگی هر بیماری به مکان با توجه به تغییرات وضعیت اجتماعی-اقتصادی و سلامت جامعه کاملا متفاوت است.
    کلیدواژگان: تحلیل مکانی، زمانی بیماری ها، شاخص محلی موران، رابطه زمان با مرگ و میر، نقاط داغ
  • میلاد مرادی *، محمود رضا دلاور، اسدالله مرادی صفحات 239-253
    با توجه به اینکه کشور ایران در منطقه ای قرار گرفته است که از نظر انرژی بادی پتانسیل فراوانی دارد، در سال های اخیر توجه فراوانی به تاسیس نیروگاه های بادی شده است. با این وجود انتخاب غیر کارشناسانه محل تاسیس نیروگاه بادی می تواند از یک طرف پیامدهای مخربی برای محیط زیست به همراه داشته باشد و از طرف دیگر منجر به هزینه های فراوانی برای دسترسی و انتقال انرژی به محل مصرف شود. هدف اصلی این تحقیق ارائه یک مدل تحلیل چندمعیاره مکانی برای ارزیابی درجه تناسب اراضی برای تاسیس نیروگاه بادی می باشد. در این تحقیق از انتگرال فازی ساجنو که قادر است انواع مختلف تعامل بین معیارها را مدلسازی کند استفاده شده است. به علاوه، از برخی از پارامترهای نظریه بازی ها از قبیل شاخص تعامل بین معیارها، شاخص قدرت هر معیار (شاخص شیپلی) و درجه خوش بینی برای شفاف سازی مدل ریاضی و قابل لمس کردن ترجیحات کارشناسان استفاده شده است. در این تحقیق با توجه به دسترسی محدود به داده های به هنگام تنها هشت لایه اطلاعاتی مربوط به معیارهای زیست محیطی، اقلیمی، اجتماعی-اقتصادی و زمین شناختی به مدل وارد شده است. نتایج پیاده سازی برای استان همدان نشان می دهد تنها حدود 10% از اراضی این استان بیشتر از 75% مناسب تاسیس نیروگاه بادی هستند که عمدتا در مناطق مرکزی و شمالی این استان واقع شده اند. در پایان به منظور اعتبارسنجی مدل ارائه شده، داده های مدل با داده های روش های AHP و OWA مقایسه شده است که به ترتیب 89% و 83% همبستگی بین نتایج موجود است.
    کلیدواژگان: تصمیم گیری چند معیاره مکانی، عملگر انتگرال فازی، نظریه بازی ها، الگوریتم بهینه سازی رقابت استعماری، نیروگاه بادی، ارزیابی درجه تناسب اراضی
  • مجید ملک پورگلسفیدی *، فرید کریمی پور، محمدعلی شریفی صفحات 255-268
    نظارت بر حرکت شناور و تعیین مسیر ناوبری جهت افزایش اعتماد ناوگان های تجاری دریایی و امنیت در سفرهای دریایی حائز اهمیت می باشد. با توجه به تاثیر شرایط آب وهوایی و فیزیکی محیط ناوبری بر حرکت شناور، بهینه سازی تاثیر این شرایط بر حرکت شناور در سفر دریایی الزامی است. مسیریابی دریایی به کمک شرایط آب وهوایی، بصورت یک مسئله بهینه سازی تعریف می شود که هدف آن بسته به کاربری شناور و سرویس ارائه شده متفاوت است. به دلیل هزینه های بالای سفرهای دریایی یکی از اهدافی که در مسیریابی دریایی بهینه می گردد زمان سفر می باشد. در این تحقیق یک مدل مسیریابی دریایی زمانمند با استفاده از الگوریتم دیکسترا و با درنظر گرفتن شرایط آب وهوایی و عمق محیط ناوبری ارائه شده است. در این مدل محیط دریا به محیطی گسسته متشکل از داده های آب وهوایی باد تبدیل می شود که در بازه های زمانی مشخصی بهنگام می گردند. با تبدیل محیط ناوبری به محیطی گسسته، در فرایند مسیریابی تاثیر عوامل باد و موج به کمک روش Kwon، با توجه به سرعت محاسباتی قابل قبول، ضمن درنظرگرفتن پارامترهای هندسی شناور تعیین شده است. با توجه به کم عمق بودن قسمتی از محیط ناوبری مورد مطالعه در این تحقیق، تاثیر عامل عمق بر سرعت شناور توسط رابطه Lackenby محاسبه شده است. در نهایت به منظور تعیین مسیر بهینه زمانمند بین بندر پیپاپاو در کشور هند و بندر بوشهر، از الگوریتم دیکسترا به دلیل پیچیدگی محاسباتی کمتر این الگوریتم در فضای گسسته استفاده شده است. با بررسی نتایج این تحقیق، ناوبری در مسیر زمانمند پیشنهادی به رغم افزایش مسافت سفر باعث کاهش زمان و در نتیجه کاهش هزینه های سفر دریایی شده است. با توجه به نتایج حاصل، میزان کاهش زمان سفر با ناآرام تر شدن شرایط آب وهوایی محیط ناوبری محسوس تر می گردد. همچنین در شرایط آب وهوایی مساعد عامل عمق، عامل تعیین کننده مسیر بهینه می باشد درصورتیکه با نامساعد شدن شرایط آب وهوایی تاثیر عوامل آب وهوایی بیشتر از عامل عمق می شود.
    کلیدواژگان: مسیریابی، بهینه سازی، الگوریتم دیکسترا، ناوبری دریایی، روش Kwon
  • امیدرضا عباسی *، علی اصغر آل شیخ، مینا کریمی صفحات 269-280
    طراحی و ایجاد زیرساخت داده مکانی با هدف تسهیل، مدیریت و به اشتراک گذاری داده های مکانی در برنامه بسیاری از کشورهای جهان قرار دارد. منابع داده زیرساخت های داده مکانی معمولا از روش های متفاوت، توسط سازمان ها و شرکت های مختلف و در وضعیت بافتی گوناگون نظیر شرایط آب و هوایی، تعریف سیستم مختصات و زمان برداشت تولید می گردند. ازاین رو، زیرساخت داده مکانی با توجه به اهداف آن و به منظور مقابله با زبان ها، نیازها و الزامات کاربر و همچنین کمک به ارائه و جستجوی مناسب داده های مکانی، باید در بالاترین سطح ممکن معنامحور باشد. در حال حاضر ناهمگونی معنایی به عنوان مانع اصلی در جهت تعامل پذیری کامل داده های مکانی به شمار می رود. هدف این مقاله رفع این ناهمگونی با استفاده از روشی مبتنی بر هستی شناسی و منطق توصیفی است. بدین منظور برای بازخوانی موجودیت های مشابه به لحاظ معنایی از سنجش همانندی معنایی استفاده می شود. برای محاسبه میزان همانندی میان موجودیت ها، دو مدل سنجش همانندی شبکه و مشخصه با یکدیگر تلفیق شده اند تا معایب هر یک مرتفع و از مزایای هریک استفاده شود. بخشی از زیرساخت داده مکانی شرکت آب و فاضلاب ایران به عنوان مطالعه موردی جهت پیاده سازی و تبیین کاربرد عملی مدل استفاده شده در این مقاله معرفی شده است. ازآنجاکه سنجش همانندی معنایی یک روش مناسب جهت رفع ناهمگونی معنایی در بازخوانی داده ها در زیرساخت های داده مکانی است، مدل پیشنهادی می تواند با ارائه کمی میزان همانندی به کاربر کمک کند. در این مقاله مفهوم «گرفتگی» در خط لوله به عنوان مفهوم پرسش کاربر در نظر گرفته شد. نتایج حاصل از این مطالعه نشان می دهد که مفهوم «زانویی» با میزان همانندی 5/42 %، به دلیل خمیدگی موجود در آن، همانندترین مفهوم به پرسش کاربر است.
    کلیدواژگان: زیرساخت داده مکانی، سنجش همانندی معنایی، هستی شناسی، منطق توصیفی، سیستم اطلاعات مکانی
|
  • A. Azmoudeh Ardalan, R. Karimy, N. Mehrnegar* Pages 1-10
    Frequency decomposition of the Earth gravitational potential in terms of spherical/ellipsoidal harmonics has been of the significant matter for a wide range of applications such as the geodetic, oceanographic, and geophysical purposes. These days, thanks to the notable advancement in the field of satellite altimetry, monitoring the sea level on the global scale has been realized in practice. Meanwhile, the gravity information may be derived from these valuable data if the accurate mean dynamic topography has been obtainable. In this respect, the mean dynamic topography can be determined via the oceanic or geodetic approaches. In the oceanic manners, the mean dynamic topography is derived using the oceanic information such as salinity, temperature, and surficial currents; while according to the geodetic methods one can obtain the mean dynamic topography by integration of satellite altimetry measurements and global geopotential models. In this contribution, we aim at assessing the feasibility of improving the pre-existing geopotential models by means of satellite altimetry observations. To this end, the sea surface topography is estimated using the geopotential and mean sea level models in a constrained least squares sense. As such, we can arrive at the Gauss-Listing geoid over the sea areas derived from the computed sea surface topography and the known mean sea level values. The Bruns formula is then implemented to reduce the resultant geoid into the gravitational potential values over the oceans on the surface of the reference ellipsoid. On the other hand, the gravitational potential values over the continental regions are obtained on the surface of the reference ellipsoid via the geopotential model of interest, once the topographic bias corrections have been considered. Lastly, a new point-wise geopotential model in terms of spherical harmonics is developed through application of the spherical harmonic analysis to the worldwide gravitational potential. As the case study, the presented methodology has been evaluated so as to improve the two global geopotential models, namely EGM2008 and go_cons_gcf_2_dir, up to the degree and order 90. Accordingly, the DTU10 mean sea level model, which has been derived from information of Topex/Poseidon, ERS1, ERS2, ENVISAT, Geosat, GFO, and Jason satellites, has been applied to the EGM2008 and go_cons_gcf_2_dir models in order to estimate the sea surface topography based on the proposed optimization solution. Consequently, the improved versions of the global geopotential models have been developed thanks to the application of the harmonic analysis to the gravitational potential values that have been attained over the sea and land areas on the surface of the reference ellipsoid. Based upon the numerical results of the assessment of the developed models at the first-order GPS/leveling points within the test areas in Iran and Finland, the capabilities of the proposed method in deriving enhanced geopotential models have been asserted. Moreover, the comparison of the consequential enhanced models with respect to the BGI gravity points have demonstrated the efficiently of the method throughout the world. As a whole, we have deduced that the presented method can be applicable to significantly improve an extensive range of the global geopotential models.
    Keywords: Geopotential Models, Satellite Altimetry, Mean Dynamic Topography, Geoid Height, Fourier Analysis
  • N. Tatar *, M. Saadatseresht, H. Arefi, A. Hadavand Pages 11-21
    Height variation in different urban objects e.g. buildings and trees coincide to occurrence of shadows in aerial and satellite images. Areas casted by shadow, appear darker than neighbouring areas in the image and it makes an unwanted contrast to the other brighter areas. This phenomenon attenuate different expectations from remote sensing data. In particular shadow areas ruins the result of automatic image matching algorithm and in land cover classification cause the misclassified pixels.
    Detection of overshadow areas is the primary step to deal with this problem. Different strategies have been used to detect shadow in remote sensing images. To name a few we can consider classification based methods, region-growing methods and different spectral indices. In classification based method, some ground truth from shadow areas are collected and supervised machine learning algorithms are used to classify shadow and non-shadow pixels. Region-growing algorithms use the high contrast between shadow and bright areas. Spectral indices are made by simple arithmetic equations between spectral bands.
    There is some deficiencies in the result of previous methods and strategies. In machine learning methods, existence of ground truth information is essential and somehow affect the results. Using region growing and spectral indices usually leads to addition of roads and vegetation to shadow areas. The result of all this methods are presented in pixel level, labelled shadow pixels. Wrongly detected shadow pixels appear as noises in classification map.
    In high resolution aerial and satellite imagery single pixels are not meaningful independently. This is the outcome of decreasing the ground sampling size of sensors versus natural objects on the earth. The solution to deal with this problem is to integrate similar neighbouring pixels which belong to the same ground object. Object-based image analysis (OBIA) is developed based on this idea, considers image object, created by segmenting the image, as processing unit. The power and possibilities of image objects are less discussed and considered in detecting shadow areas.
    In this paper we propose a new object-based framework for shadow detection which simultaneously benefits from OBIA, machine learning and spectral indices. Our proposed framework consists of four main steps. First step is the pre-processing of data. In this step spectral bands are pan-sharpened to enhance the spatial accuracy and the panchromatic band is segmented by eCognition Software. In the second step new spectral indices are proposed to overcome the weakness of existing indices in mixing roads and vegetation to shadow areas. To automate the process of detecting shadows from index values the Otsu thresholding algorithm is employed.
    Third step is object-based shadow detection. To detect shadow areas in object level, majority analysis of shadow pixels in each image object is considered. To solve the ambiguity between vegetated and shadow objects an extra condition is checked to confirm that an object belongs to shadow class. This condition uses the mean NDVI value of pixels in each image object. Finally in the fourth step evaluation of produced map is obtained using completeness, correctness and F-measure. In this step the result of shadow detection using spectral indices, proposed index, machine learning and proposed method are compared and analysed.
    GeoEye-1 satellite data comprised 4 spectral bands over Qom city in Iran is used in the experiment. 800 shadow objects are selected manually to evaluate the result. Correctness, completeness and F-measure obtained from confusion matrix of shadow map are calculated to compare the results. The result of shadow detection by spectral indices and SVM and random forest classifiers have been compared to the result of proposed method. Result of our experiments demonstrates the superiority of proposed object-based over the pixel-based method respect to correctness and F-measure for different classifiers. The proposed method succeed to detect shadow area with 93% correctness and 92% Completeness It is also evident that object-based method have well behaviour on the edge of shadow areas and perfectly detect shadows.
    Keywords: Shadow, Shadow Detection, FNEA Segmentation, Object, Based Classification, High Resolution Satellite Imagery
  • S. Jahandideh *, M. Saadatseresht Pages 23-35
    Three-dimensional modeling of the human body has become one of the important research topics in computer graphics. This is due to the importance of virtual representation of the human body in applications such as animation, computer games, virtual fitting room and cases etc. This has been obtained in the context of software and hardware developments in computer graphics. In this regard, three-dimensional modeling of the human body with low cost, high quality and accessible to everyone without the complexity and the need for specific expertise for processing is of great importance.
    The aim of this paper is proposing a method for solving 3D human body modeling. Since the introduction of Kinect by Microsoft with features including low cost, no complexity, depth and color images production with a high frame rate and possibility of using in different lighting conditions, it could be a useful tool for our this purpose. But using the Kinect sensor for human body modeling confronts challenges such as raw data with low resolution and high noise, users movement during the scan, hidden areas and also a lack of accurate connection between depth and color data. In this regard, the idea of using the Kinect rotation motor in vertical angles in order to reduce the distance from the user to increase the quality of primary data was presented. The proposed non-rigid registration method was utilized for solving the problem of user instability during the scan. Also the sensor geometry calibration for accurate alignment of color and depth data was used.
    In this paper, the procedure for 3D human body reconstruction is as follow: at the first, person is stayed on a specified distance from the Kinect and is scanned in the eight stations at three vertical angles. Then, colored point cloud are achieved by aligning color and depth images and extracting user data from background. Then rigid registration between sequential data stations is performed automatically. In order to solve the problem of instability during the scans, non-rigid registration is done between data station pairs. Finally, a general mesh was generated from the final point cloud and texture mapping is done to produce a realistic 3D body model.
    The experimental results show that our rapid 3D human body modeling system has a high capability comparing to other similar systems. This system has a lower cost (less than 150 dollars), capacity of scanning in near distance without additional equipment such as rotation tables, and a higher quality of the final 3D model so that the details such as wrinkles and hair style is recognizable. The final 3D model generated from point cloud with about 4 mm density and 4mm noise thickness. Also the problem of low-quality in modeling of legs and shoes caused by a high movement during the scan, have been largely resolved. Therefore, we can generally say that the proposed method resolves the similar system’s weaknesses in data collection and processing steps. This makes our system proper for diverse applications and different environment.
    Keywords: 3D Human Body Modelling, Kinect Sensor, Non, Rigid Registration, 3D Scanner
  • N. Abdi *, A. R. Azmoodeh Ardalan, R. Karimi Pages 37-47
    The ionosphere is the ionized region of the atmosphere which is situated between 80 and 1200 km. Ionospheric delay is the major resource of error in GNSS positioning, Therefore knowledge of the ionospheric behavior is an important factor in this field. Total Electron Content (TEC) values may be considered as a key parameter to monitor the behavior of the ionospheric medium. Nowadays, continuous GNSS observations can provide an efficient tool to monitor timely ionospheric irregularities. Many scientists have investigated global ionospheric models on the basis of different observations data. For example, IGS Ionosphere Working Group produced daily TEC maps for user services from GNSS data. In this paper, we intend to utilize dual frequency GPS observations provided by Iranian Permanent GNSS Network (IPGN) to calculate TEC maps in Iran. For this purpose, data of 43 IPGN stations and about 180 IGS stations were processed with Bernese GPS software. This process was based on the use of spherical harmonics expansion up to degree and order 15 like the global one, to provide a model of TEC. In the meantime of using GPS data to calculate TEC maps, other resource of errors in GPS positioning such as satellite and receiver clock biases, tropospheric error and multipath error must be either removed, or at least significantly reduced. For this purpose, we used the geometry free linear combinations of pseudo ranges and carrier phases. For reducing the noise level of pseudo range observations we used the carrier phase smoothed pseudo range data as well. The processing method consists of several steps; code smoothing with phase observations, estimation of Differential Code Biases (DCBs), estimation of spherical harmonic coefficients and generation of TEC maps. Before code smoothing, the phase observations were pre- processed to remove the cycle slips. The used model assumes that the whole free electrons are concentrated on a thin spherical layer to an altitude varying between 250 and 450km. We chose the altitude equals to 450km in this paper. The obtained results show that the maximal TEC value measured over Iran is about 22 TECU, this value corresponds to the noon period (midday), where the sun is close to the zenith. The minimal TEC value varied around 5 TECU, it corresponds to the midnight period, and such values were obtained for the day of Jun 22, 2009. Iranian Ionosphere Model (IRIM) was created and compared with the different solutions delivered by the several IGS Ionosphere Associate Analysis Centers (IAACs) which are CODE, ESA, JPL and UPC. Despite different IAACs use various approaches, they provide TEC maps with resolution of 2 hours, 5◦ and 2.5◦ in UT, longitude and latitude respectively. In order to compare our obtained results with different IAACs TEC maps, we chose TEHN station from IPGN stations to generate and display TEC profiles. The differences between the various models are less than 6 TECU. The IRIM results had minimum differences with CODE TEC maps which both use spherical harmonics as their basic functions. The remained differences caused by the fact that when CODE TEC maps are estimated, the data from IPGN stations are not used. Calculated TEC values were thereafter applied to correct and improve the quality of the single frequency solutions in absolute and relative positioning modes. It is noted that ionosphere free (L3) solution results was considered as the reference solution. In absolute mode, we received the considerable improvements in horizontal and vertical components by using the IRIM instead of IGS models. In relative mode the comparison between the corrected L1 and L3 solutions showed that ignoring the ionospheric effects causes network contraction. Furthermore, the corrected L1 solution results using IRIM rather than IGS models were closer to the L3 solution results. Moreover, for baselines up to several hundreds of kilometers, deviations were better than 10cm in horizontal component.
    Keywords: Positioning, Ionosphere, Spherical Harmonics, GPS, IPGN, TEC, DCB
  • M. Shamshiri *, M. Akhoondzadeh Hanzaei Pages 49-58
    Discussion about earthquake to reduce its casualties and damages is very important, especially in the Seismicity area like Iran that the occurrence of this natural phenomenon is seen annually. Iran has an approximate area of 1648000 square kilometers with geographical coordinates 25 to 40 degrees north latitude and 44 to 64 degrees east longitude that located in the middle of Alpine-Himalayan seismic belt. In this erea there are many active faults that their movement continues and the final balance has not been established. The occurrence of severe earthquakes as Buin Zahra earthquake (1962), Tabas (1978), Rudbar (1990), Bojnoord (1997), Bam (2003) and other numerous earthquakes prove this subject. While most natural disasters are out of human control, but it seems that Success in prediction of temporal and local of them can dramatically control damages and casualties. Earthquake occurrence in addition to changes of geometry and physics of the earth crust has many other effects. Some of its effects is in the ionosphere layer that are indicated as changes in the electrons values, ions density and electromagnetic field. Anomalies detection before earthquake is an important role for earthquake prediction. Each geophysical and geochemical parameter of the lithosphere, atmosphere and ionosphere layers that unusually changes before earthquake are known as earthquake precursor. Ionosphere changes that recognition by remote measurements (such as using Global Positioning System (GPS)) are known as earthquake ionospheric precursor.
    TEC (Total Electron Content) of the ionosphere can be achieved by GPS data processing. Classic methods such as mean are unable to detect non linear pattern and therefore in complex and nonlinear systems they are not suitable for recognition and prediction of time series. Because of the nonlinear behavior TEC and land surface changes in order to detect changes, in this paper an attempt is done using an artificial intelligence method including ANN (Artificial Neural Network) and multilayer Perceptron (MLP) for pattern recognition and prediction of TEC variations. Because ionospheric fluctuations usually do not have a normal distribution and do not follow Gaussian curve, in order to detect seismic anomalies, the mean and interquartile range is used to determine the lower and upper bounds. In this study several data sets from the ionospheric total electron content (TEC) derived from the GPS data processing by Bernese softwares. In this way earthquakes of Ahar located in east Azerbaijan (2012/08/11) and Bushehr (2013/4/9) have been studied and the results were compared with data from global stations. First the stations coordinates were calculated using Bernese software with PPP (Precise Point Positioning) method. Then TEC values were obtained using GIM (Global Ionosphere Model). By analyzing the causes of ionospheric anomalies such as the geomagnetic field and solar activity and remove them from the process, results indicate that some of this anomalies caused by the earthquake and using intelligent algorithms could be useful for the prediction of nonlinear time series and outstanding anomalies ocurr some days before and after earthquake. It can be concluded that ANN algorithm has been able to detect TEC anomalies well. Also TEC values are obtained from ground stations have a high correlation with the results of global standard model.
    Keywords: Earthquake, Ionosphere, Anomaly, TEC, Artificial Neural Network
  • S. A. Saadat *, A. Safari Pages 59-71
    Gravity-field recovery of the Earth using reconstruction of spherical harmonic coefficients up to specified degree and order requires proper data sampling based on Shannon-Nyquist rate. Since, these coefficients are globally significant, the sampling must be done uniformly on the Earth, which it takes much time and expense to collect and process data. Many studies have been done in the field of sampling analysis of spherical harmonics [1,2]. Sneeuw [2] showed a lack of Nyquist sampling rate can cause aliasing of second type in gravity-field modeling. Recently based on Compressive Sensing (CS) theorem the sampling rate can be substantially reduced and a signal can be approximated in sparse sense with fewer sampled data that has main role in reconstruction. In this case, the desired signal can be reconstructed, using only some base functions, which are most strongly correlated with the problem. Therefore, based on this strategy, the base functions posing the best solution to the problem will be selected and the sampling rate for regional gravity field modeling will be decreased significantly. When we say a signal is m-sparse, it means that there are at most nonzero components in the signal. In this case, only m coefficients of the signal have large magnitude, and others are zero, or have very small values. Here, the desired signal can be reconstructed with its large components without loss of more information. The zero-norm of a vector which is defined as , specifies the sparsity-level of a signal. Sparse approximation has been discussed in many studies [4,5,6,7,8,9]. The basic idea proposed by Mallat and Zhang [4] is called matching pursuit (MP), which is an iterative sparse approximation method to reconstruct a signal under specified conditions by replacing a complex sparse problem with a simple optimized solution. Pati et al. [6] modified this algorithm into orthogonal matching pursuit (OMP), which is used for non-orthogonal dictionaries and converges faster than MP. The regularized orthogonal matching pursuit (ROMP) algorithm popularized by Needell and Vershynin [8] is an iterative sparse approximation method where at each iteration m nonzero components of unknown parameters that most closely resemble the properties of the desired signal are selected. Needell and Tropp [9] refined the ROMP algorithm with compressive sampling matching pursuit (CoSaMP), which identifies locations of the large energy of a signal at each iteration. All these algorithms try to find column vectors in the design matrix that most strongly correlate with the desired signal. It is also assumed that the design matrix is well-posed and prior knowledge of the sparsity-level of the signal is clear. Usually, in practical application an ill-posed problem may be encountered, also the sparsity-level of the signal is not exactly clear, which make it difficult to use conventional iterative methods of CS. In this paper we present a new dynamic algorithm called Stabilized Orthogonal Matching Pursuit (SOMP) for gravity-field recovery of the earth using sparse approximation of geopotential spherical harmonic coefficients, which is compatible with the ill-posed problem and can determine the sparsity-level of the signal, properly. Numerical result of the calculated spherical harmonics coefficients up to degree and order 36 shows that the algorithm is able to reconstruct the Earth's gravity-field with precision in mind the number of samples is 50% lower than the Nyquist rate.
    Keywords: Gravity, Field Recovery, Spherical Harmonics, Ill, Posed Problem, Compressive Sampling, Sparse Approximation
  • A. Ashrafzadeh Afshar *, Gh. R. Joodaki, M. A. Sharifi Pages 73-84
    Gravity Recovery and Climate Experiment (GRACE) satellite mission has provided a powerful tool to evaluate groundwater resources. In many cases, groundwater resources are nonrenewable, and monitoring the rates at which they are utilized is important for planning purposes. In this study, we have used GRACE level 2 Release 05 data to evaluate groundwater resources across southern Iran (south of 34o latitude) during August 2002 to December 2010. We estimate monthly changes in total water storage (groundwater plus soil moisture plus surface water and snow) across this region using data of GRACE level 2 Release 05, from the Center for Space Research (CSR) at the University of Texas (data available at http://podaac.jpl.nasa.gov). We replace the GRACE results for the degree-one spherical harmonic coefficient, which correspond to geocentre motion due to the Earth’s mass redistribution, with those computed as described by Swenson et al. [2008]. We also replace it for the lowest-degree zonal harmonic coefficient, C20, which is due to the flattening of the Earth, with those obtained from Satellite Laser Ranging (SLR). The effects of Glacial Isostatic Adjustment (GIA) are small in this region, but are nevertheless corrected by a GIA correction model. Stripping effects in the GRACE data, due to the nature of the measurement technique in GRACE and mission geometry, are smoothed by applying a Gaussian smoothing function with a 350 km radius. The results show a large negative trend in total water storage centered over western and southern Iran. GRACE data have no vertical resolution, in the sense that it is impossible to use the GRACE data alone to determine how much of the mass variability comes from surface water or snow, how much comes from water stored in the soil, and how much comes from water in the subsoil layers (i.e., from groundwater). Because our goal is to isolate the changes in groundwater storage, it is necessary to first remove estimates of the other water storage components. Using output from a land surface model such as a version of Community Land Model (CLM4.5) to remove contributions from soil moisture, snow, canopy storage, and river storage, we conclude that most of the long-term water loss in the southern Iran is due to a decline in groundwater storage. Our estimates show that the groundwater loss during this period is at an average rate of 45 km3/yr. We compare our GRACE estimates over southern Iran with Iranian groundwater estimates obtained from 330 active observation wells, used to monitor the level and quality of groundwater across this region. The results show that the conclusion of significant Iranian groundwater loss is further supported by the in situ well data. These estimates represent the combined effects of natural climate variability (e.g., drought) and human activities. Because CLM4.5 also includes unconfined aquifer storage, we can estimate anthropogenic groundwater trends by subtracting the CLM4.5 predictions of naturally occurring groundwater change from our total groundwater change estimates. These results indicate that 2.99 ± 1 km3/yr of the groundwater loss in southern Iran may be attributed to human withdrawals.
    Keywords: GRACE Data, Groundwater, Well Data, GLDAS Model, CLM4 Model
  • R. Javadi Azar, B. Voosoghi, M. R. Ghaffari Razin* Pages 85-93
    One of the most fundamental and important a new area of research in geodesy is earth surface deformation modeling at local and global scales. Also, check out the effective factors in deformation, and offers various computation methods in order to determine the movement of the Earth's crust are considered as a recent development in geodesy. In recent years, space geodetic techniques with high precision and reliability have provided new sources of information to determine the geodetic positions. This information used for the detection and quantification of surface deformations. Iran is located in a very active seismic region. Cataloge of historical earthquakes in this region shows that Iranian plateau has potential for great earthquakes in the future. Due to this high risk of natural hazard, many researchers have focused to study about geodynamic of Iran. For this purpose, in this paper a new numerical measure called Novozhilov measure of mean rotation is introduced. In the fourth decade of the 20th century Novozhilov obtained a measure of the mean rotation by modifying a previous definition produced by Cauchy. The measure introduced by Novozhilov for the mean rotation indicates the importance of the infinitesimal rotation tensors. To achieve this goal, first linear strain and rotation tensors on earth surface based on shell theory in continuum mechanics using finite element approach will be calculated and then the mean rotation measure using linear strain and rotation tensor components is determined. In this paper the results of Novozhilov’s mean rotation measure were compared with GPS block rotation rates in deg/Myr measured in the center of each block (from block model with locked faults). GPS network that is used in this paper includes 37 stations all over Iran. The computed linear strain and rotation tensors based on geodetic observations (GPS) of national permanent geodynamic network in 2008 are in a good agreement with the numerical results of previous works. The pattern of Novozhilov’s mean rotation measure over Iran shows that the highest right turn rotation is related to the region in the south of Iran including JASC, BABS, GLMT (3.113deg/Myr) stations. Also the highest left turn rotation can be seen in the north of Iran including MAVT, BIAJ, GRGN (-2.509deg/Myr) stations. The importance of Novozhilov’s mean rotation analysis on earth surface in comparison to the analysis of this measure in Cartesian system is shown by this fact that the computed measure on the earth surface is in a good agreement with the results of previous studies on blocks rotation in different areas of Iran.
    Keywords: Earth Surface Deformation Analysis, Strain Tensor, Rotation Tensor, Mean Rotation (Novozhilov)
  • S. S. Babaee *, Z. Mouavi, M. Roostaei Pages 95-111
    Monitor and detection of displacement field due to changes in land surface are one of the practical and important studies in different topics of the Geodesy, Geological and geophysical which have a significant role in trends and preventing natural disasters such as earthquake, subsidence and landslide. In the meantime, there are different methods for detection this displacement and geodetic measurement, that among them, Interferometric Synthetic Aperture Radar (InSAR) with a feature wide spatial coverage, fine spatial and time resolution and high accuracy has become one of the important and significant techniques. Land subsidence due to groundwater extraction has been a common geohazards in many arid countries and districts of the world. In Iran, this is a serious challenge for many regions, particularly in the plains with arid and semi-arid climate, for example, Mashhad valley, Hashtgerd, Yazd and Golpayegan plains. Gazvin plain is one of these regions where the land subsidence has seriously developed. This region is located in the north-central Iran, with an area size of about 4430 km2. Gazvin plain in terms of industrial, agriculture and population point is one of the important plain in Iran. In recent years, high rate of extracting water from underground source due to agricultural activity, industrial and population development caused decreasing the groundwater level, so because of the groundwater level downfall, subsidence occurs and it’s trace is seen as cracks and fractures in the ground surface. Studies show that a large area in Qazvin plain is subject to the land subsidence induced by overexploitation of groundwater for the purposes of agricultural, industrial and population development. Therefore, this research study on the pattern and rate of subsidence occurred in Qazvin plain between 2003 and 2010, using radar is Interferometric synthetic aperture radar (InSAR) techniques. The data set consists of 20 and 18 images of descending tracks D192 and D421 during 2003 to 2010. We processed radar data with the open source software StaMPS/MTI (Stanford Method of PS/Multi-Temporal InSAR). The interferograms are corrected for the phase signature due to orbital separation using precise doris orbital data for ENVISAT satellite which is provided by DEOS are stored in a binary format (ODR) that believed to have a radial precision of 5-6 cm. then the 90 m SRTM DEM has been used to estimate the topographic phase contribution. The atmospheric phase delay in each individual interferograms corrected using the retrieved water vapors from MERIS data. We also improve signal to noise ratio of each differential interferogram using a Goldstein filter. The time series analysis of permanent scatterer (PS) and small baseline subset (SBAS) algorithms are used for deformation time series analysis. The time series results show that a considerable and continuously land subsidence in the study area. Results show a good agreement between the PS and SBAS time series, both of two approaches identify peak amplitude of ~ 30-35 mm/year for the 2003-2010 times period. With comparison width and extent of subsidence of InSAR results and plain wells density map of Qazvin plain determines the subsidence occurred in the area with the density of deep wells to extract groundwater and subsequent subsidence occurred in this area.
    Keywords: Interferometrictime Series, Permanent Scatterers (PS), Small Baseline Subset (SBAS), Land Subsidence, Qazvin Plain
  • M. Sharif, A. A. Alesheikh* Pages 113-125
    Movement of objects is taking place in geographical contexts. Context directly/indirectly influences movement process and causes different reactions to moving objects. Therefore, considering context in movement studies and the development of movement models are of vital importance. In this regard, incorporating context can play a crucial role in similarity measurement of objects movements and their corresponding trajectories. Trajectories of moving point objects, beside their spatial and temporal dimensions, have another aspect which is called contextual dimension. This dimension, however, has been less considered so far and a few researches in trajectory analysis domain have investigated it. To this end, this research develops a method based on Euclidean distance in which individual spatial, temporal, and contextual dimensions as well as their integration can be explored in the process of similarity measurement of trajectory. Beside the simplicity of the method, it is developed in a way for taking into account every small change in each type of dimension(s). To validate the proposed method and survey the role of contextual data in similarity measurement of trajectories, three experiments are performed on commercial airplane dataset. Accordingly, geographical coordinates and altitude of airplane as spatial dimension, travel time as temporal dimension, and airplane speed, wind speed, and wind direction as contextual dimension are utilized in these experiments.
    The first experiment measures the correspondence of trajectories in different dimensions. Also, it explores the role of dimensions weights individually and collaboratively along the similarity measure process. The results demonstrate that weights severely affect similarity values, while they are totally application dependent. Meanwhile, it can be confirmed that contexts may increase or decrease the values of trajectories similarities. This effect can be seen in the average of relative similarity values of commercial airplanes trajectories in spatial (0.60), spatial-temporal (0.51), and spatial-temporal-contextual (0.46) dimensions. Contexts can enhance and restrict movements as well. To justify this statement, the second experiment is conducted to explore how movement and geographical contexts interact in similarity measure process. To this end, four sample trajectories are compared with respect to different dimensions. For a pair of trajectory, the relative similarity value at spatial dimension is 0.04. By incorporating time dimension, this value increases to 0.30 at spatio-temporal dimension. Given the high similarity of these two trajectories in wind direction, wind speed, and airplane speed (0.85), the ultimate similarity of them becomes 0.48. In contrast, for another pair of trajectory, the spatial and spatio-temporal similarity values are 0.85 and 0.91, respectively. Considering the similarity value of these two trajectories in wind direction, wind speed, and airplane speed (0.37), the final relative similarity becomes 0.73. The third experiment sought for the role of motivation context in similarity measure process. Although such context is very difficult to capture and in many applications will remain inaccessible, we consider the pilots decisions in handling the airplanes during the approaching and landing phases (i.e., continuous descent final approach or dive and drive) as the motivation context in this application. Choosing either of these techniques highly affects the figure of trajectories where quantifying them can be accomplished by measuring the similarity of trajectories at spatial and spatial-temporal dimensions. All in all, the results of the above experiments yield the robustness of the proposed method in similarity measurement of trajectories as well as its sensitivity to slight alterations in dimensions.
    Keywords: Movement, Trajectory, Similarity Measurement, Context, Moving Objects
  • R. Tehranchi *, Kh. Moghtased Azar, H. R. Nankali Pages 127-135
    GPS time series consists of a linear trend, harmonic signals, probable offsets and also noise which is described as a stochastic part. Because of various applications of GPS time series such as plate tectonics, crustal deformation and earthquake dynamics studies, these time series should be modeled with high accuracy. For this purpose, systematic effects in functional model should be determined with high accuracy. In this paper the effect of earthquakes is also considered in the functional model in addition to mentioned behaviors. Because earthquakes cause crustal deformations, their effects can be observed in the shape of offsets (as coseismic effects) and (or) rate changes (as coseismic or postseismic effects) in the time series. Neglecting these effects lead to biased estimation of noise amplitudes. To discover the effect of earthquakes, a manual solution is used for each station. Effects are detected graphically by comparison of behavior of time series and epoch of occurred earthquakes in the region. The earthquakes which considering their effects, lead to the best fitting of functional model to time series, are selected as effective ones. Because the Alborz range is the most seismically active region in the Northern Iran, 25 permanent GPS stations with the time span between 2005 and 2013 in this area are selected for this study. Analysis of time series indicates similar behavior of time series with the same offset times and common earthquake effects for most stations (also for those which are located in far distances from epicenters). This result means that systematic effects may propagate from one station to the others during the processing and the network adjustment. Furthermore, noise analysis of time series using least squares (co)variance components estimation method, shows that neglecting seismic effects can result in the presence of random walk noise in 88%,12% and 60% of north, east and up components, respectively. However, considering the seismic effects causes positive estimation of variances of random walk noise in 12%,12% and 36% of north, east and up components, respectively. Finally, due to similar behavior of time series, a reprocessing of them could be suggested.
    Keywords: GPS Time Series, Noise Analysis, Least Squares VCE Method
  • H. Emami *, A. Safari, B. Mojaradi Pages 137-153
    Land surface emissivity (LSE) is an important intrinsic property of materials and knowledge of the LSE is essential to derive the land surface temperature (LST) that can be obtained from the emitted radiance measured from space. LSE provides useful information for geological and environmental studies, mineral mapping and is one of the important input parameters for climate, hydrological, ecological and biological models. The emissivity of natural surfaces inherently may vary significantly due to differences in soil structure, soil composition, organic matter, moisture content and differences in vegetation cover characteristics. In other words, LSE changes is depending on the surface (such as texture, topography, soil moisture, angular variations effect) and sensor parameters (such as spatial resolution, SRF, and effective wavelength of thermal bands). Remote sensing technology provides widely the monitoring of this quantity. Several methods exist to estimate LSE from satellite data, which apply the visible and near-infrared (VNIR) or thermal infrared (TIR) spectral regions or both of them. According to the way by which the LSE is determined along with LST, the emissivity estimation methods from optical remote sensing data can be categorized into three distinct types including, stepwise retrieval methods, simultaneous LST and LSE retrieval methods with known atmospheric parameters, and simultaneous LSEs, LST, and atmospheric quantities retrieval methods. Influential researches, in the stepwise retrieval methods, were conducted and mainly NDVI-methods have been used to predict LSE from NDVI values. In particular, NDVI-methods assume that the surface is composed of the soil and vegetation, some problems arise for other kinds of surfaces that are likely classified as bare soil pixels, such as rocks, man-made, and ice/snow. Besides, another main origin of error in these methods is caused by great changes in the emissivity of soil types. Furthermore, the choice of a typical emissivity value for some surface objects such as bare soil is a more critical question, because the variability of emissivity values for soils is more than vegetation and other ones. In this research, a new approach called improved normalized difference vegetation index-based method (INDVI_based) estimating LSE on Landsat-8 (known as Landsat Data Continuity Mission, LDCM) data has been proposed for semi-arid areas. At first, a simulation of channel emissivities and reflective bands of basic classes in bare soil, vegetation and mixed areas is accomplished based on convolving ASTER spectral Library with LDCM spectral response functions. Then, for main three areas are defined to determine separate emissivity estimate model as function of reflective bands from basic spectra associated with the main class. In the proposed method, the cannel LSEs are expressed as functions of atmospherically corrected reflectance from the LDCM visible and near-infrared channels with wavelength ranging from 0.4 to 2.29 μm fo bare soil. The effectiveness of the proposed approach was implemented in LDCM data and obtained LSE were compared and validated with two scenes of LSE standard product of Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER). Results showed that LSE of the improved proposed method, in the band 10 of LDCM in comparison with the first and second LSE product of ASTER, lead to 0.76% and 0.75% errors in term of root mean square error (RMSE) measure, respectively. Moreover, this error for thermal band 11 is1.49 % and 1.06% in first and second examined scenes, respectively. Unlike previous methods, the proposed method not only accurately estimates of LSE as a function from the reflectance of various surface objects, but also it uses the spectral response function of thermal and reflective bands in estimating the LSE. In addition, the proposed method the poor relationship between LSE and only reflectance of the red band in previous methods, strengthen due to the use of all reflective bands in LSE estimation and it is applicable on most sensors.
    Keywords: Land Surface Emissivity, Land Surface Temperature, Landsat Data Continuity Mission (LDCM), Normalized Difference Vegetation Index (NDVI)
  • Sh. Dareshiri, M. Farnaghi* Pages 155-171
    As the number of published geospatial resources in the web is increasing permanently, providing users with proper tools for search and discovery of these resource is of great importance. Geoportals are a type of web portals that enable users to find geospatial resources. However, when users search for a specific resource in existing geoportals, a wide range of unrelated results might be retrieved. Such results are often confusing, so that user has to spend a lot of time to find the most appropriate resource. In addition, working based on user desires and preferences has been considered as a fundamental characteristic of modern web applications.
    In this article, the capability of recommendation is added to the geoportal. The recommendation capability enhances the ability of geoportals which is able to recommend the most appropriate geospatial resources to users by considering their desires and preferences. In order to accomplish this purpose, a new solution with recommender systems is proposed. Recommender systems using knowledge derived from the users’ previous interactions can lead users to access resources that they are interested in. Collaborative filtering is a common technique used in recommender systems that deal with this problem. This method uses user rating data to extract the similarity between users or resources for making recommendations. Moreover, mathematical functions are defined in order to improve the efficiency of the recommender geoportal process. The functions are designed according to the specifications of users and resources such as city, county and language, along with the distance between the user and resource.
    In addition, an operation of these functions is to obviate the cold-start problem in collaborative filtering. To evaluate the designed geoportal recommender, a recommender geoportal is implemented so that a user is able to profit the advantages and usage of its recommendations. The obtained results indicate that the efficiency of recommender geoportals is improved compared with common geoportals.
    Keywords: Geoportal, Recommender System, Collaborative Filtering, Geospatial Service, Geospatial Data, Cold, Start
  • M. Esmaeilzadeh *, J. Amini Pages 173-185
    Geometric calibration and georeferencing are the most important processes of SAR raw images. Geometric distortions caused by platform instabilities, error in determining the relative height and displacements origin from topography. The prominent errors for the SAR imaging geometry, and target height changes are known as foreshortening and layover. Therefore, in this article our studies were focused on this problem. In order to correct these errors, an independent source of information was required such as imaging from another angle, topographic map or DEM. In this paper, a method for geometric calibration of SAR images is proposed. The method uses Range-Doppler (RD) equations and to implement the method used in this article, two SAR datasets are tested with RD modelling. These datasets are acquired by ALOS PALSAR spaceborne SAR sensor. Test areas covered by these datasets range from flat plains to mountainous areas, which the first dataset located in the border between United States and Mexico and the second one is in Iran. In this method, for the image georeferencing, the appropriate Digital Elevation Model (DEM) and also exact ephemeris data of the sensor is required. In the algorithm proposed in this paper, first digital elevation model transmit to range and azimuth direction. By applying this process, errors caused by topography such as foreshortening is removed in the transferred DEM. Then, the original image is registered to transfer DEM by transformation equations. The output is a georeferenced image without geometric distortions. The advantage of the method described in this article is in eliminating the requirement for any control point as well as the need for attitude and rotational parameters of the sensor. Furthermore, two experiments with different settings are designed and conducted to comprehensively evaluate the accuracy of the SAR georeferencing with RD model. Few experiments are done in this study for various purposes. The first one is to find the best transformation equation among the three types for registering images. In the first experiment the efficacy of three types of transformation equations on georeferencing of ALOS PALSAR images were evaluated with identified check points. To evaluate the accuracy of the georeferenced images, 25 check points in different parts of the image was selected. By comparing the obtained coordinates in georeferenced image and reference points in Google Earth, the RMSE was calculated for these points. In best situation, the planimetry accuracy were 20.11m for dataset A and 19.94m for dataset B and the altimetry accuracy were 30.28m for dataset A and 30.71m for dataset B. Since the ground resolution of multi-look image was 30 meters, the planimetry accuracy achieved in this research is acceptable. The other experiment is to compare the georeferenced SAR images generated from three DEMs to demonstrate the effectiveness of DEM spatial resolution on the accuracy of georeferencing SAR images. In addition we investigated the suitability of three typical DEM datasets for SAR georeferencing in RD model. The experimental results show that the best transferred DEM was obtained from the ASTER DEM of spatial resolution comparable to that of ALOS PALSAR images.
    Keywords: Georeferencing, Foreshortening, Layover, Shadow, Range, Doppler, Digital Elevation Model, Transformation Equations
  • A. Ghadimi *, Kh. Moghtased Azar, H. R. Nankali Pages 187-198
    The Alborz range of northern Iran is a region of active deformation within the broad Arabia–Eurasia collision zone. The range is also an excellent example of coeval strike-slip and compressional deformation, and as such can be an analogue for inactive fold and thrust belts thought to involve a component of oblique shortening. It is roughly 600 km long and 100 km across, running along the southern side of the Caspian Sea. Several summits are 4000 m in altitude. Damavand, a dormant volcano, reaches 5671 m. The highest non-volcanic summit is Alam Kuh, at 4830 m.
    The Alborz range, northern Iran, deforms by strain partitioning of oblique shortening onto range-parallel left-lateral strike-slip and thrust faults. Deformation is due to the north–south Arabia–Eurasia convergence, and westward motion of the adjacent South Caspian relative to Iran. The occurrence of moderate to large earthquakes in the Alborz suggests an important deformation regime in this mountain belt. This belt has been responsible for several catastrophic earthquakes in the past. The Manjil earthquake of 20 June 1990, which is the most disastrous Iranian earthquake in the twentieth century, occurred in this belt. Both thrust and strike-slip faulting have been reported in this belt.
    By the knowledge of the crustal deformation characteristics in areas with active tectonics we can realize the style, direction and magnitude of the deformation in the area, it can contribute to the deeper understanding of the underlying tectonic processes and to the improvement of the seismic hazard assessment.
    In this contribution strain rate fields (using geodetic data vs. seismic data) calculated over the three different parts of Alborz regions (Western, Central, and Eastern Alborz). Eigenspace components of seismic strain tensor (seismic events with Ms ≥ 4.0 in the time interval 1900–2010) over three zones revealed crustal shortening over all three zones. Namely, the results of seismic data showed left-lateral strike-slip faulting in the Eastern Alborz, the right-lateral strike-slip motion in the Western Alborz and compression mechanism in the Central zone. The highest compressional rate in the Western Alborz probably represent the high seismicity rate of this region. In comparison, eigenspace components of geodetic strain tensor (during time interval from 2005 to 2009) illustrated high rate of compressional components in the Central and Western zones. Comparison of seismic and geodetic strain rates in the Western Alborz indicates the deformation rate over this region is associated with seismic activities. However, in Central and Western regions the geodetic strain rates appeared remarkably larger than seismic strain rates. May, this fact illustrated the deformation pattern in these regions are related to the local aseismic creep of those segments. The difference between eigendirection of both kind of tensors (geodestic vs. seismic) in segments probably were related to the short period of GPS data with respect to the seismic data. However, it is a fact that early historical data are incomplete. So, the catalog completeness is crucial for estimating reliable seismicity strain rates and, consequently, for use in seismic hazard assessments. Hence, the performing the repeated geodetic data over the Alborz region is proposed to investigate the reliable estimating of the strain rate.
    Keywords: Seismic Strain Rate, Geodetic Strain Rate, Maximum Compression, Maximum Extension Axis, Seismic Catalog
  • Z. Izakian *, Y. Amerian, M. Mesgari Saadi Pages 199-209
    Time series is a type of data with complex structure. Analysis of time series is used in sciences such as meteorology, economics, geology, marine science, medicine and engineering widely. So, Because of time series applications in various sciences, the interest to analyze these data has been increased.On the other hand by developing information gathering technologies such as mobile, GPS and sensors, and Access to large volumes of time series data, we always require methods to extract useful information from large datasets. Thus, data mining is an important method for solving this problem. Clustering analysis as the most commonly used function of data mining, has attracted many researchers in computer science. Clustering is a strong instrument for knowledge discovery and it provides useful information about existing patterns in datasets. In general, the purpose of clustering is representing large datasets by a fewer number of cluster centers. It simplifies large datasets and thus is an important step in the process of knowledge discovery and data mining. Fuzzy C-means (FCM) clustering is one of the most important classic clustering methods that have been used in many researches. The main disadvantage of this method is the high probability of getting trapped in local optima especially in facing high-dimensional data such as time series. Furthermore Euclidean distance is the most commonly used similarity measure in Fuzzy C-means but sometimes, its necessary to use another similarity/dissimilarity measures instead of Euclidean distance. In this paper in order to compensate the shortcomings of Fuzzy C-means algorithm, we used one of the existing evolutionary algorithms. Evolutionary algorithms has gained huge popularity in the field of pattern recognition and clustering recently. Among the existing evolutionary algorithms, the differential evolution algorithm as a strong, fast and efficient global search method has been attracted the attention of researchers. In this paper, we proposed a technique for clustering time series data using a combination of Fuzzy C-means and differential evolution (DE) approach and we considered dynamic time warping (DTW) as distance measures between time series. Also, in this method we used Discrete Cosine Transform (DCT) to time series dimension reduction. Finding all elements of cluster centers using differential evolution is time consuming and the large number of unknown parameters related to the cluster centers will reduce the efficiency and the speed of differential evolution algorithm.So, for reducing the search space,the most important Discrete Cosine Transform coefficients of the cluster centers were recognized as the main unknown clustering problem in the proposed method and differential evolution algorithm tries to determine the near optimal Discrete Cosine Transform coefficients of cluster centers by minimizing the Fuzzy C-means objective function. Experimental results over two popular data sets indicate the superiority of the proposed technique compared to fuzzy C-means and a clustering algorithm based on differential evolution without using dimension reduction techniques.Comparing the run time of the methods, the proposed method is slower than the Fuzzy C-means clustering algorithm, but due to the use of discrete cosine transform method to reduce unknowns, it operates faster than differential evolution without using dimension reduction techniques.
    Keywords: Time Series, Clustering, Fuzzy C, Means, Differential Evolution, Discrete Cosine Transform
  • M. Gharibi *, H. Arefi, H. Rastiveis, H. Hashemi Pages 211-225
    The rapid growth and development of urban environments has been created a lot of motivation for researchers in Geomatics engineering in order to provide optimal methods for monitoring urban changes and updating maps. Nowadays, using aerial/satellite imagery for updating old maps is one of the important topics in Photogrammetry and Remote Sensing. In this case, the available information in the digital cartographic data can be used as training data for classification, creating conceptual model, reducing the search space and also to estimate the unknown parameters like segmentation parameters. Applying available information of cartographic data leads to contribution this type of information during the feature extraction in order to improve the efficiency and decrease the defects of this progress. Therefore, this paper proposes a novel approach for building extraction in order to building map updating from aerial images with help of old digital cartographic data. In this study, the geometric information of polygons existing in old cartographic data is used as an auxiliary data to improve the process of building extraction and change detection based on active contour models in a hierarchical approach. The building extraction process is done in two step using two types of active contour models which runs upon the height and spectral data. The active contour models in the face with large dimensions, high level of details and also images with weak gradient information have not acceptable performance. Therefore, the focus of this paper is to present a novel approach to compensate the above mentioned defect. So, the building extraction process is done in a hierarchical approach based on a combination of two geometric active contour models which causes the elimination of the defects of these models in the extraction of buildings with different geometric and spectral behaviors. In the proposed method, each of the polygons are considered as an initial curve to a region-based geometric active contour model. This model is run upon a part of the DSM, commensurate with the position and dimension of the old polygon. After primary extraction of the building boundaries from the DSM, geometric change detection is done and then, the change map is produced. The change map gives a comprehensive intuition about the occurred changes. Due to various errors in DSM, the primary extracted boundaries did not have sufficient accuracy. So, to improve the accuracy of these boundaries, the results are introduced to a constrained edge-based geometric active contour model which is one of the innovations of this study. The common edge-based active contour models cannot recognize the object boundary in images with weak gradient information and so, the level set function evolution well be unstable and therefore will not be getting correct results. To solve this problem, a novel approach as constrained level set formulation is proposed. This constraint is derived from output of the region-based model and is caused to solve the deficiency of this model in the face with weak gradient images. After the extraction of the precise boundaries, the MBR-based approach as an approximation or generalization technique is applied for irregular generated boundaries of changed buildings which are obtained from the proposed constrained edge-based model. Finally, the generalized polygons are record in geodatabase. The dataset used in this study concern the part of vaihingen city of Germany. The shape accuracy of extracted buildings and overall accuracy of change detection process were 92% and 78%, respectively. These results clearly demonstrated the success of the proposed method in building extraction using active contour models and change detection in order to automatic building map updating.
    Keywords: Updating Building Plan, Revealing the Geometric Changes, Update the Map, Active Curve Models, MBR
  • J. Karami, S. Delfan *, A. Shamsoddini Pages 227-238
    Changes in socio-economic trends and factors that affect on the health of a society as well as changes of environmental that occur over time, can alter the effects of a disease at different times. At the level of city, Identify regions with high risk of getting a particular disease that can be lead to death, Compared to other regions and investigate the behavior of any of these diseases during different time periods, an important role in disease control and health management in the community. In this study, investigated the trends of disease-based mortality in different regions of Tehran with revolving around seasonal and annual changes during the period 1993-2013. Geostatistical analysis using different tools to assess the relationship between disease at a certain time and in one place with the surrounding area. The Local Moran's I index is Including neighborhood analysis tools that to assess disease in specific time and place are effective to neighboring regions and find the neighborhood at different times, to identified regions of high risk (HOT SPOT). Moran index value articulated the relationship of a variable and its distribution in space and time with neighboring regions. diseases of Hot Spots and classification them in spatial clusters on the basis of this index, can be identified. Neighborhood is defined in such a way that at the level of a city is different for various diseases. This optimum amount neighborhood may be affected at different time intervals depending on the nature of the disease and also affected it is different from local factors or global. Results of the analysis on 12 group’s mortality disease-based showed that spatial significant levels are different in each disease. The relationship between diseases in different regions may be clustered in regions or dispersion they exist. This amounts to 5 groups of diseases, including diseases of the brain, liver, gastrointestinal and bleeding, cancer and stomach cancer have a meaningful relationship with the spatial factor’s in Scaling throughout a city. It is worth mentioning that This relationship may be different in larger scale than the area of the city. In the next stage, using temporal of analysis for five groups of diseases that have higher spatial index, Amount dependence of any of the diseases during the time periods of annual and also examined changes of any disease in different season . The results showed is different neighborhood radius for different diseases in different seasons. Also regions with a high risk of each disease being different with the change of seasons and changing environmental parameters. In examined the results of annual trends showed that during twenty year period, Amount dependence of any of the diseases to locations due to changes In socio-economic status and health of the community is quite different.
    Keywords: Spatial, Temporal Analysis of Diseases, Local Moran\'s I Index, Relationship Between Time with the Mortality, Hot Spots
  • M. Moradi *, M. R. Delavar, A. Moradi Pages 239-253
    Land use suitability assessment is a traditional problem and many researches have been undertaken to address this problem. The main reason why this problem is important is that experts want to consider all the aspects into account when they are trying to find the optimum location for a specific purpose. In other words, experts want to find the best place from all point of views such as environmental, ecological, economic and political aspects. Therefore, a decision support system is obligatory in order to facilitate decision making using mathematical models. On the other hand, due to the fact that a place is going to be chosen in this problem, GIS is a main science involved in this assessment. In this paper, a spatial decision support system is proposed using the integration of Sugeno integral and Imperialist Competitive Algorithm (ICA). Sugeno integral is able to aggregate alternative scores with respect to their interaction. In other decision making methods, it is assumed that the criteria are independent but it is against the real world situations. For example, in land use suitability assessment problem, some criteria such as land price and distance to major roads are not independent. Therefore, this study can improve spatial decision support systems by taking the impact of interaction among criteria into account. Sugeno integral operator uses fuzzy capacities instead of layer weights. Fuzzy capacities show the importance of each group of criteria for land suitability assessment. Furthermore, Sugeno integral can provide a number of numerical measures to indicate the importance of each criteria (Shapley value), the interaction among each set of criteria (interaction index) and the power of each criteria to veto the final decision (veto index). Shapley value is a parameter defined by game theory which indicates the power of each player in a game. In terms of decision making problem, Shapley index shows the importance of each criterion in the decision making process. A more important criterion has a higher impact on the results of the decision making. Interaction index shows how two players cooperate. If the two players have a positive cooperation they will make a better situation and if they have negative interaction the power of their coalition will be less than the power of each of them. In multiple criteria decision making, interaction index represents how two criteria interact. When the simultaneous satisfaction of two criteria is favourable, the interaction among them is positive and when the simultaneous satisfaction of the two criteria is not what the decision maker wants, it means that the two criteria have negative interaction. In this research imperialist competitive algorithm is applied to find the best values of fuzzy capacities that best describe the experts’ knowledge. In other words, a constrained optimization problem is solved here to compute the optimum value of fuzzy capacity for each set of criteria. ICA is selected because it is able to find the optimum value of a continuous function under constrains. The proposed SDSS is employed for land use suitability assessment for a new power plant. The results indicate that the method is highly suitable for modeling GIS-based decision making over interacting criteria. This model may be used in other areas of decision support systems with minor modifications.
    Keywords: Spatial Multiple Criteria Decision Making, Fuzzy Integral Operator, Game Theory, Optimization Algorithm Competition Colonial Power Plants Wind, Assess the Suitability
  • M. Malekpour Golsefidi *, F. Karimipour, M. A. Sharifi Pages 255-268
    Nowadays, considering the importance of marine commerce, monitoring the marine navigation and routing the ships could be regarded as important issues. Moreover, specifying the weather condition of the marine environment for minimizing the damages and fatalities to vessels, crews and cargos is vital. Hence, weather routing is absolutely crucial. In addition, due to the high cost of voyage, the duration of voyage is one of the essential parameters of weather routing.
    The aim of this research is to minimize the voyage duration regarding the weather conditions. The marine environment is simulated by a grid of weather data which has the resolution of 0.25 D that is updated every 6 hours. The data is downloaded from European Centre for Medium Range Weather Forecasts (ECMWF). Following that, the weight of each edge is calculated with respect to the time in which the vessel passes the edge. Travel time is related to the impact of wave, wind and sea depth on vessel’s speed which is computed based on Kwon method and Lackenby’s formula. Finally Dijkestra algorithm is applied for calculating the optimum route.
    The studied area located in the north of Indian ocean in Persian gulf, Oman Sea and Arabian Sea. The model is implemented in two different weather conditions (calm and rough conditions) for calculating minimum time route between Pipavav port ( ) in India and Bushehr port ( ). The results indicate that although the voyage distance increased in this model, the duration of voyage decreased. Thus, the cost of voyage dropped noticeably. In addition, the depth of the marine environment determines the route of journey in the calm weather conditions because of lack of existence of high seas and storm in front of the ship. In the rough weather conditions the weather condition parameter (speed and direction of the wind and height and direction of the wave) has more effect than depth parameter in order to prevent the ship from navigation in high seas in which the ship's speed reduces dramatically. Moreover, results show that in the bounded seas like Persian Gulf with small area with respect to spatial resolution of marine environment (the resolution of the weather data) in which the weather condition between neighbouring cells does not change obviously, depth parameter is the critical parameter to determine the journeys path.
    Keywords: Routing, Optimization, Dijkstra\'s Algorithm, Navigation, Kwon Method
  • O. R. Abbasi *, A. A. Alesheikh, M. Karimi Pages 269-280
    Many countries aim to design and build Spatial Data Infrastructure (SDI) to facilitate, manage and share spatial data. Different public or private organizations provide data sources in diverse ways and various contextual situations such as weather conditions, coordinate system definitions or acquisition times. Therefore, SDI should be semantic-based, as possible as it can, to deal with different user languages, requirements. Such an SDI can help providing appropriate representation and search. Since the data integration is an essential part of each information system, semantic similarity is getting more attention in the web world. An efficient spatial data sharing across different organizations is considered to have significant contributions to the sustainable development of today’s communities. As the quantity and accessibility of spatial data is tremendously increasing via web, interpreting, handling and retrieving of this data has become a difficult task. The data suppliers come from various information communities with differing conceptualizations of the world. So, this data is heterogeneous in essence and distributed over several sources. Since the acquisition of geospatial data is extremely expensive, developing mechanisms for reusing and sharing geographic information are necessary to save costs. Besides, customer orientation and personalization of data sources is central to enable flexible and multipurpose usage of the data and to provide customers with the required data. Ordinary information retrieval systems are limited to syntactic retrieval mechanisms and therefore cannot deal with semantic differences in the customer's and the data supplier's conceptualization. The Open Geospatial Consortium (OGC) has established standards for storing, discovering, and processing geographical information but these standards cannot solve the semantic problem. Today, the semantic heterogeneity is considered as the main obstacle to the full interoperability among spatial data sources. Geospatial data describes real world geographic features by their spatial extent and their location. Hence, properties are necessary to capture the semantics underlying geospatial data, because they can represent spatial qualities such as shape. The notion of semantic similarity serves as an indicator for relevance in the retrieval process.
    This paper uses an ontology-based approach and description logic to resolve the semantic heterogeneity. For this purpose, semantic similarity measurement is used to interpret, handle, and retrieve data in terms of semantically similar concepts. In order to calculate similarities, two existing similarity measurement models were combined: Feature model and Network model. While Feature model computes similarity of concepts based on their common and distinctive properties, Network model puts the concepts in a semantic network and computes the similarity based on the relations of the concepts in the network. This paper proposes a hybrid similarity model as a computational model for semantic similarity measurement. This hybrid model enables the necessary expressiveness to capture semantics underlying geospatial data. The shortcomings and benefits of each model with respect to the requirements of semantic information retrieval of geospatial data are described. Retrieval systems use similarity measures to determine the relevance. Only a retrieval system which returns cognitively adequate results can successfully support human users. The proposed model retrieves relevant information by measuring the semantic similarity of concepts to a given query. The methodology has been tested on some parts of Iranian Water and Wastewater Company’s infrastructure as a case study. Since semantic similarity is an appropriate means to resolve semantic heterogeneity in retrieving data in SDIs, the proposed model can help users by representing similarity in a quantitatively manner. This paper has considered blockage in pipeline as user search concept. The results of similarity represent the advantages of the proposed model. In addition, the results showed that the most similar concept to user search concept was Elbow with %42.5 similarity because of its curvature.
    Keywords: Spatial Data Infrastructure (SDI), Semantic Similarity Assessment, Ontology, Description Logic (DL), Geospatial Information System (GIS)