javad sadidi
-
Taftan is a semi-active volcano located in southeast Iran with many craters. The main objective of this study is to investigate whether subsidence or uplift in Taftan Peak. 58 Sentinel 1-A images acquired from January 2015 to December 2020 in the ascending orbit mode, and 102 Sentinel 1-A Sentinel 1-B images acquired from October 2014 to June 2020 in the descending orbit mode were preprocessed for this purpose. The interferograms with the permanent scatterer interferometry (PSI) method were created using SARPROZ and StaMPS softwares, in which atmospheric corrections were made automatically, and then the surface displacement of Taftan volcano estimated.The Line of Sight (LOS) displacement corresponding to the uplift was 0.5 mm to 1 mm yr-1 for the ascending orbit and 1 mm yr-1for the descending orbit. Because no GPS station was close to Taftan volcano, the GPS measurements of one station located in the study area (Saravan station) was used to check the accuracy of PSI method. The GPS station of SARAVAN has situated inside the town ,and it is appropriate to use and analyze PSI technique in this station. As a result, the researchers found that the PSI method is in accordance with the GPS data.
Keywords: GPS, Taftan Volcano, Sentinel 1, PSI -
یادگیری عمیق یک روش مدرن پردازش تصویر و تجزیه و تحلیل داده هاست که با داشتن نتایج امیدوار کننده و پتانسیل بالا وارد حوزه مدیریت شهری شده است. پروژه (OSM)Open Steet Map بزرگ ترین مجموعه داده های مکانی داوطلبانه است که در بسیاری از حوزه های کاربردی مختلف به عنوان مکمل یا جایگزین با داده های مرجع استفاده می شود. در بعضی از موارد در کشورهای پیشرفته دقت داده های داوطلبانه تولید شده توسط موبایل و دیگر ابزار توسط کاربران حتی بیش از داده ی مرجع دولتی می باشد. هدف از تحقیق حاضر ارزیابی استفاده از هوش مصنوعی در تکمیل داده های داوطلبانه در مناطق کمتر مشارکت شده توسط داوطلبان می باشد. ابتدا با استفاده از شبکه عصبی کانولوشنی Res_UNet کاربری اراضی با دقت 83 درصد به دست آمد، سپس با توجه به پیش بینی انجام شده، از روش واحد مبنا جهت ارزیابی میزان کامل بودن داده های OSM استفاده شد. نتایج نشان می دهد میزان کامل بودن بلوک های ساختمانی OSM در کل منطقه مطالعاتی برابر با 6/3 درصد، جنگل ها7/9درصد، درخت های میوه 4/90 درصد و زمین های کشاورزی 88/81درصد می باشد. که نشان از نرخ پایین کامل بودن بلوک های ساختمانی و جنگل و نرخ بالای کامل بودن زمین های کشاورزی و درختان میوه می باشد. نتایج تحقیق بیانگر درصد مشارکت پایین داوطلبانه درتولید داده های مکانی می باشد. از طرفی دقت بالای تولید کاربری اراضی توسط هوش مصنوعی نتایج امیدوارکننده ای را در استفاده از هوش مصنوعی در تولید و تکمیل داده های داوطلبانه به جای نیروی انسانی بخصوص در کشورهای کمتر توسعه یافته یا مناطق با جمعیت داوطلب کمتر یا نقاط دورافتاده و صعب العبور ارائه میدهد
کلید واژگان: هوش مصنوعی و OSM، کاربری اراضی، کامل بودن، یادگیری عمیق، واحد مبنا، کرجNowadays, deep learning as a branch of artificial intelligence acts as an alternative for human with hopeful outcomes. Open Street Map as the biggest open source data is used as a complementary data sources for spatial projects. It is notable that is some advanced counties the accuracy of VGI data is higher than governmental official data. This research aims to use artificial intelligence to produce and subsequently promote completeness of OSM data. Res_UNet architecture was utilized to train landuse categories to the network. The result shows that IoU metric is about 83 percent that implies a high accuracy paradigm. Then, united-based method was used to calculated completeness of OSM data. The unit-based results show that completeness of building blocks, forest, fruits garden and agriculture land are: 3.6, 9.7, 90.4 and 81.88 respectively. It shows the low volunteer participation rate to produce OSM data. On the other side the high accuracy achieved by deep learning leads us to complete OSM data by artificial intelligence instead of human prepared data. The advantage of using machine rather than human may be utilized in undeveloped countries or low density population regions as well as inaccessible areas.
Keywords: Artificial Intelligence, Deep Learning, OSM, Land Use, Unit-Based, Karaj -
کاربری مسکونی یکی از کاربری های مهم و اصلی در نظام کاربری اراضی شهری است که مدیریت ایمنی و توجه به الزامات پدافندی آن به دلیل تراکم بالای جمعیتی در شهرهای بزرگ بسیار حائز اهمیت است. پژوهش حاضر، در زمینه ارزیابی آسیب پذیری کاربری های مسکونی در برابر تهدیدات خارجی با رویکرد پدافند غیرعامل شهری در منطقه 10 تهران است که در قالب مطالعات فضایی مکانی و با اجرای مدل تحلیلی در سه گام انجام شد. ابتدا شناسایی و دسته بندی اصول و الزامات پدافند غیرعامل در سه گروه پارامترهای سازه ای، جمعیتی و مکانی صورت گرفت و با استفاده از ابزار پرسشنامه و نظرسنجی کارشناسی، اولویت های اصول پدافند غیرعامل در ارتباط با فضاهای مسکونی مشخص شد. در ادامه، بر پایه فرآیند تحلیل شبکه ای، تعیین وزن هر یک از معیارها انجام گرفت و وزن حاصل از مدل ANP، در محیط نرم افزار ArcGIS بر لایه های مکانی منطقه اعمال شد. نتایج اجرای مدل نشان داد که از نظر شاخص های سازه ای، بیش از 78 درصد واحدهای مسکونی منطقه، در گروه سازه هایی با میزان آسیب پذیری زیاد قرار می گیرند و از نظر شاخص های جمعیتی، در 88 درصد واحدهای مسکونی در صورت وقوع تهدیدات خارجی میزان آسیب پذیری زیاد است. از لحاظ شاخص های مکانی، بیش از 92 درصد فضاهای مسکونی، با چند نوع کاربری ناسازگار همجوار هستند و بیشترین آسیب پذیری را دارند. به طور کلی نتایج حاصل از روی هم گذاری لایه ها نشان داد بیش از 86 درصد واحدهای مسکونی محدوده در پهنه های آسیب پذیر واقع شده اند و میزان آسیب پذیری واحدهای مسکونی در این پهنه ها بسیار بالاست.
کلید واژگان: آسیب پذیری، کاربری مسکونی، پدافند غیرعامل، فرآیند تحلیل شبکه ای (ANP)، منطقه 10 تهرانThe pervasiveness of the concept of vulnerability in various dimensions has led to the emergence of the theory of vulnerability in the spatial sciences. According to the theory of vulnerability, in any given space, there is a coefficient of vulnerability, while the levels and amplitude of safety are not evenly distributed on the surface of that space. Residential use is one of the most important and main uses in the urban land use system, and safety management and attention to its defense requirements are very important due to the high population density in large cities. The present study is in the field of assessing the vulnerability of residential uses against external threats with a passive urban defense approach in District 10 of Tehran, which was conducted in the form of spatial studies and by implementing an analytical model in three steps. First, the principles and requirements of passive defense were identified and classified into three groups of structural, demographic and spatial parameters, and using the questionnaire and expert survey tools, the priorities of passive defense principles in relation to residential spaces were determined. Then, based on the network analysis process, the weight of each criterion was determined and the weight of the ANP model was applied to the spatial layers of the region in ArcGIS software. The results of the model showed that in terms of structural indicators, more than 78% of residential units in the region are in the group of structures with high vulnerability and in terms of demographic indicators, in 88% of residential units in case of external threats, the level of vulnerability is high. In terms of spatial indicators, more than 92% of residential spaces are adjacent to several incompatible uses and have the highest vulnerability. In general, the results of overlapping layers showed that more than 86% of residential units in the area are located in vulnerable zones and the vulnerability of residential units in these zones is very high.
Keywords: Vulnerability, Residential Land Use, Passive Defense, Network Analysis Process (ANP), District 10 of Tehran -
مطالعات کیفیت زندگی به منظور شناسایی نقاط ضعف مناطق محروم، بالا بردن میزان رضایتمندی در بین شهروندان، رتبه بندی مکان ها و نقش آن به عنوان ابزاری کارآمد در مدیریت و برنامه ریزی شهری است. هدف این مطالعه ایجاد مدلی فازی شامل معیار های موثر برای ارزیابی کیفیت زندگی محلات شهری در مناطق 3، 4، 5 و 6 شهر مشهد می باشد. در این راستا ابتدا معیار های موثر در کیفیت زندگی که از داده های سنجش از دوری، آماری و داده های مکانی به دست آمده بود در 5 قلمرو؛ اقتصادی (نرخ اشتغال، بیکاری، مالکیت مسکن و اجاره نشینی)، اجتماعی (نرخ باسوادی و بیسوادی، طلاق و مهاجرت)، کالبدی (نوع مصالح و نوع اسکلت مساکن، شیب و تراکم جمعیت)، دسترسی به خدمات (مراکز آموزشی، درمانی، فرهنگی، تفریحی و شبکه ارتباطی) و زیست محیطی (سبزینگی، آلودگی هوا و دمای سطح زمین) استخراج و سپس با استفاده از فرایند تحلیل شبکه وزن دهی گردید. سپس برای مدل سازی مکانی کیفیت زندگی معیار های انتخاب شده با استفاده از مدل فازی گاما تلفیق شدند. نتایج به دست آمده حاکی از این است که کیفیت زندگی در محلات مرکزی محدوده مورد مطالعه از کیفیت زندگی مطلوبتری برخوردار هستند اما با دور شدن از نواحی مرکزی به سمت حاشیه های محدوده مورد مطالعه به تدریج از کیفیت زندگی کاسته می شود. بنابراین برای ارتقاء شاخص کیفیت زندگی شهروندان محلاتی که وضعیت مناسبی از نظر کیفیت زندگی ندارند، لازم است تغییراتی در جهت بهبود ابعاد اقتصادی، اجتماعی، کالبدی، عدالت فضایی و محیط زیستی، صورت گیرد. در ادامه بررسی شاخص خودهمبستگی مکانی موران (57/0) بر عدم تصادفی بودن نحوه توزیع ویژگی کیفیت زندگی شهری و وجود الگوی خوشه ای در محدوده مورد مطالعه تاکید دارد.
کلید واژگان: سیستم اطلاعات مکانی، شاخص Moran's I، کیفیت زندگی شهری، مدل FANP، مشهدQuality of life studies in order to identify the weaknesses of deprived areas, increase the level of satisfaction among citizens, ranking places and its role as an effective tool in urban management and planning. The purpose of this study is to create a fuzzy model including effective criteria for evaluating the quality of life in urban areas in areas 3, 4, 5 and 6 of Mashhad. In this regard, first, the effective criteria in quality of life that were obtained from distance measurement data, statistics and spatial data in 5 areas; Economic (employment rate, unemployment, home ownership and rent), social (literacy rate, divorce and migration), physical (type of materials and type of housing structure, slope and population density), access to services (educational, medical centers, Cultural, recreational and communication network) and environmental (greenery, air pollution and surface temperature) were extracted and then weighed using the network analysis process. Then, for spatial modeling of quality of life, the selected criteria were combined using the gamma fuzzy model. The results indicate that the quality of life in the central areas of the study area has a better quality of life, but by moving away from the central areas to the outskirts of the study area, the quality of life gradually decreases. Therefore, in order to improve the quality of life index of the citizens of neighborhoods that are not in a good condition in terms of quality of life, it is necessary to make changes to improve the economic, social, physical, spatial and environmental dimensions. In the following study, Moran spatial autocorrelation index (0.57) emphasizes the non-random nature of the distribution of urban quality of life characteristics and the existence of a cluster pattern in the study area.
Keywords: Urban quality of life, Spatial Information System, FANP Model, Moran', s I index, Mashhad -
فصلنامه فضای جغرافیایی، پیاپی 84 (زمستان 1402)، صص 145 -168
باتوجه به سفرهای مسافران شهر تهران و شناسایی مکان های پربازدید برحسب علایق گردشگران، پژوهش حاضر در راستای داده کاوی الگوی رفتاری سفر مسافران می باشد. در این جهت هدف پژوهش حاضر، شناسایی مکان های پربازدید مسافران شهرتهران از روی رفتار آن ها برای مقاصد گردشگری است تا به کمک این الگوها بتوان الگوی سفر آن ها را بر اساس اطلاعات داوطلبانه جغرافیایی بررسی و ارزیابی کرد. بدین منظور از داده کاوی و مدل RFMبرای تجزیه و تحلیل روابط بین مشخصه های مسافران و تمایلات آن ها استفاده شده است. در این راستا برای انجام مراحل عملیاتی پژوهش نیاز به اپلیکیشن قابل نصب بر تلفن همراه و سرور ذخیره سازی داده های ارسالی از سمت گردشگر بوده که توسط پژوهشگر آماده سازی گردید و در گام بعدی در دسترس گردشگران شهر تهران قرار گرفته است. پس از ذخیره سازی داده های داوطلبانه جغرافیایی توسط گردشگر براساس آخرین آمارهای گردشگری نزدیک 85% مکان های پربازدید استان تهران، حسب سلیقه و بازدید های گردشگران ثبت گردیده که شامل سفرهای مذهبی، تفریحی، فرهنگی- تاریخی، علمی و اجتماعی می شود. با توجه به اطلاعات بدست آمده مشخص گردید که فرآیند معرفی منطقه گردشگری و سوق دادن گردشگران به سمت مکان های پربازدید با برنامه های عملیاتی اجرا شده در این بخش به نتیجه رسیده است. در این شرایط داده های ثبت شده گردشگران از اهمیت بالایی برخوردار است .در مدل RFMاقدام به بررسی انواع سفرها، تعداد مکان های مورد بازدید و اطلاعات گردشگران شده است و با شناسایی ساختار داد ه ای موجود، اقدام به تطبیق داده های دریافتی با متغیر های تاریخ بازدید از مکان (جدیدترین تاریخ بازدید از مکان) R و (مدت زمان بازدید از مکان) M و تعداد دفعات بازدید از مکان (تکراربازدید از مکان)F گردیده است. تحلیل داده های تحقیق باتوجه به 3 شاخص مطرح شده از روش های متداول آماری امکان پذیر نمی باشد. روش RFM امکان خوشه بندی و تحلیل داده ها را جهت دستیابی به الگوی سفر گردشگران در اختیار محقق قرار می دهد و مدل مناسبی جهت تحلیل اطلاعات می باشد. نتایج پژوهش حاکی از آن است که براساس علایق گردشگران شهر تهران، مکان های تفریحی در راس هرم قرار دارند که براساسCLV محاسبه شده در پژوهش پلاتینی نامیده می شوند و مکان های فرهنگی و تاریخی و مذهبی و زیارتی در درجه دوم نقر ه ای می باشد و مکان های اجتماعی در درجه سوم مکان های مسی نامیده می شوند که این طیف درجه بندی نشان از اهمیت مکان های بازدیدشده برای گردشگران دارد. لازم به ذکر است که برای معرفی مکان های پر بازدید به گردشگران دیگر نیز می توان از سامانه گردشگری استان تهران جهت جذب گردشگر به این نوع مکان ها بهره برد.
کلید واژگان: : اطلاعات داوطلبانه جغرافیایی - الگوی سفر - داده کاوی - توریسم - روش RFMGeographic Space, Volume:23 Issue: 84, 2023, PP 145 -168Considering the travels of travelers in Tehran and identifying the most visited places according to the interests of tourists, the present study is in line with data mining the behavioral pattern of travelers' travel. In this regard, the purpose of this study is to identify the most visited places of travelers in Tehran based on their behavior for tourism purposes so that with the help of these models, their travel pattern can be studied and evaluated based on voluntary geographical information. For this purpose, data mining and RFM model have been used to analyze the relationships between passengers' characteristics and their desires. In this regard, in order to carry out the operational steps of the research, an application can be installed on the mobile phone and a data storage server sent by the tourist, which was prepared by the researcher and is available to tourists in Tehran in the next step. After storing voluntary geographical data by the tourist, according to the latest tourism statistics, about 85% of the most visited places in Tehran province, according to the tastes and visits of tourists, which includes religious, recreational, cultural-historical, scientific and social trips. According to the information obtained, it was found that the process of introducing the tourist area and directing tourists to the most visited places with the operational plans implemented in this section has been completed. In this situation, the recorded data of tourists is of great importance. In the RFM model, the types of trips, the number of places visited and tourist information are examined, and by identifying the existing data structure, the received data are matched with the variables of the date of visiting the place. Date of visiting the place) R and (duration of visiting the place) M and number of visits to the place (repeated visits to the place) F. Analysis of research data is not possible according to the three indicators of conventional statistical methods. The RFM method allows the researcher to cluster and analyze data to achieve the tourist travel pattern and is a suitable model for data analysis. The results of the study indicate that according to the interests of tourists in Tehran, recreational places are at the top of the pyramid, which are called based on the CLV calculated in the platinum study, and cultural, historical, religious and pilgrimage places are in the second place of silver and social places in the second degree. Third are the places called Messi, which indicate the importance of the places visited by tourists. It should be noted that in order to introduce the most visited places to other tourists, the tourism system of Tehran province can be used to attract tourists to this type of places.
Keywords: Voluntary Geographic Information - Travel Pattern - Data Mining - Tourism - RFM Method -
یادگیری عمیق یک روش مدرن پردازش تصویر و تجزیه و تحلیل داده ها می باشد که با داشتن نتایج امیدوارکننده و پتانسیل بالا، وارد حوزه مدیریت شهری شده است. هدف از تحقیق حاضر، بررسی تکنیک های داده افزایی در بهبود نتایج قطعه بندی ساختمان ها با استفاده از تصاویر هوایی با قدرت تفکیک مکانی بالا و روش یادگیری عمیق می باشد. برای این منظور از مجموعه داده ساختمان MSB و مدل MapNet استفاده شد. مدل در سه مرحله بدون داده افزایی، با داده افزایی تبدیلات هندسی و با داده افزایی تبدیلات هندسی و فتومتریک مورد آموزش و ارزیابی قرار گرفت. نتایج ارزیابی مدل نشان داد که با استفاده از تکنیک های داده افزایی تبدیلات هندسی معیارهای ارزیابی امتیاز اف-یک و IoU به ترتیب به میزان 5/0 و 55/0 درصد و با استفاده از تکنیک-های داده افزایی تبدیلات هندسی و فتومتریک به میزان 41/1 و 57/1 درصد افزایش پیدا کرد. این افزایش به صورت بصری در بهبود قطعه بندی مناطق متراکم ساختمان و ناپیوستگی ساختمان های بزرگ مقیاس مشاهده شد.
کلید واژگان: تبدیلات فتومتریک، تبدیلات هندسی، تصاویر هوایی، داده افزایی، قطعه بندی، یادگیری عمیقDeep learning is a modern method of image processing and data analysis that has entered the field of urban management with promising results and high potential. The purpose of this study is to investigate data augmentation techniques in improving the results of segmentation of building using aerial images with high spatial resolution and deep learning method. For this purpose, MSB building data set and MapNet model were used. The model was trained and evaluated in three stages without data augmentation, with data augmentation of geometric transformations and with data augmentation of geometric and photometric transformations. The results of model evaluation showed that using geometric transformations as data enhancement techniques, F-1 and IoU score evaluation criteria have increased by 0.5 and 0.55%, respectively, and using data techniques Incremental geometric and photometric transformations increased by 1.41 and 1.57 percent. This increase was visually observed in the improvement of the segmentation of dense areas of the building and the discontinuity of large-scale buildings.
Keywords: Photometric transformations, Geometric transformations, aerial images, Data Augmentation, Segmentation, Deep Learning -
نشریه کاربرد سنجش از دور و سیستم اطلاعات جغرافیایی در علوم محیطی، سال دوم شماره 4 (پاییز 1401)، صص 81 -100در تحقیق حاضر به ارزیابی و پهنه بندی خطر زمین لغزش در محدوده مهاباد تا سردشت با کاربرد مدل های تحلیلی مختلف از قبیل ماشین بردار پشتیبان، جنگل تصادفی و رگرسیون لجستیک پرداخته شده است. روش انجام تحقیق حاضر مبتنی بر روش توصیفی - تحلیلی و کاربرد مقایسه ای صحت الگوریتم های ماشین بردار پشتیبان، جنگل تصادفی و رگرسیون لجستیک بوده است. بر این اساس از داده ها و معیارهای مختلف محیطی در فرآیند تجزیه و تحلیل استفاده گردیده است. ابتدا بر اساس تعیین نقاط نمونه، سه مدل مذکور به منظور تهیه نقشه پهنه بندی زمین لغزش به اجرا درآمده است و سپس بر اساس نتایج، اقدام به ارزیابی و اعتبارسنجی نتایج مدل های مورد استفاده شده است. نتایج پهنه بندی زمین لغزش محدوده مورد مطالعه حاکی از این بوده است که به طورکلی نیمه جنوبی منطقه به دلیل تاثیر عواملی از قبیل ساختارهای متراکم گسلی، شیب بالاتر و تراکم بیشتر آبراهه از پتانسیل بالاتری نسبت به نیمه شمالی آن برخوردار است و بر اساس ماشین بردار پشتیبان 04/71 درصد، بر اساس جنگل تصادفی 44/53 درصد و بر اساس رگرسیون لجستیک 39/77 درصد از مجموع وسعت منطقه دارای حساسیت لغزشی متوسط به بالا بوده است. ارزیابی دقت حاصله برای الگوریتم ها بر اساس منحنی ROC چنین مشخص نموده است که ماشین بردار پشتیبان، جنگل تصادفی و رگرسیون لجستیک به ترتیب مقدار صحت 76/0، 87/0 و 84/0 را به خود اختصاص داده اند و از این نظر الگوریتم جنگل تصادفی بهترین دقت را ارایه کرده است. همچنین شاخص Precision - Recall نیز به ترتیب برابر با 809/0، 873/0 و 844/0 به دست آمده است که بیانگر دقت بالاتر الگوریتم جنگل تصادفی نسبت به دو الگوریتم دیگر در زمینه پهنه بندی پتانسیل خطر وقوع زمین لغزش در مسیر مهاباد - سردشت می باشد.کلید واژگان: زمین لغزش، یادگیری ماشین، جنگل تصادفی، ماشین بردار پشتیبان، مهاباد - سردشتJournal of Remote Sensing and GIS Applications in Environmental Sciences, Volume:2 Issue: 4, 2022, PP 81 -100In this research, the landslide susceptibility mapping in the area of Mahabad to Sardasht road has been done using different algorithms. The research method is based on the comparison of support vector machine, random forest, and logistic regression algorithms. In this regard, various environmental data and criteria have been used. First, based on the determination of the sample points, the three algorithms have been implemented in order to prepare the landslide susceptibility map, and then comparison and validation of the results of the used models have been addressed. The landslide zoning results have indicated that in general, the southern parts of the region have a higher susceptibility than the northern parts due to the influence of factors such as dense fault structures, higher slope, and higher density of waterways, and based on the support vector machine, it is 71.04%. According to random forest, 53.44% and according to logistic regression, 77.39% of the total area has medium to high landslide susceptibility. The accuracy assessment of the algorithms based on the ROC curve has determined that the support vector machine, random forest, and logistic regression have obtained accuracy values of 0.76, 0.87, and 0.84, respectively, and from this point of view, the random forest algorithm provided the best accuracy. Moreover, the Precision-Recall is equal to 0.809, 0.873, and 0.844, respectively, which indicates the higher accuracy of the random forest algorithm than the other two algorithms in the field of landslide susceptibility mapping in the Mahabad-Sardasht road.In this research, the landslide susceptibility mapping in the area of Mahabad to Sardasht road has been done using different algorithms. The research method is based on the comparison of support vector machine, random forest, and logistic regression algorithms. In this regard, various environmental data and criteria have been used. First, based on the determination of the sample points, the three algorithms have been implemented in order to prepare the landslide susceptibility map, and then comparison and validation of the results of the used models have been addressed. The landslide zoning results have indicated that in general, the southern parts of the region have a higher susceptibility than the northern parts due to the influence of factors such as dense fault structures, higher slope, and higher density of waterways, and based on the support vector machine, it is 71.04%. According to random forest, 53.44% and according to logistic regression, 77.39% of the total area has medium to high landslide susceptibility. The accuracy assessment of the algorithms based on the ROC curve has determined that the support vector machine, random forest, and logistic regression have obtained accuracy values of 0.76, 0.87, and 0.84, respectively, and from this point of view, the random forest algorithm provided the best accuracy. Moreover, the Precision-Recall is equal to 0.809, 0.873, and 0.844, respectively, which indicates the higher accuracy of the random forest algorithm than the other two algorithms in the field of landslide susceptibility mapping in the Mahabad-Sardasht road.Keywords: Landslide, machine learning, Random forest, Support Vector Machine, Mahabad-Sardasht
-
برای مدیریت بحران در زمان وقوع زلزله و کاهش آسیب های ناشی از آن، حجم گسترده ای از اطلاعات در زمان های اولیه پس از وقوع زلزله ضروری است. مشکل اصلی سیستم های موجود برای برآورد خسارت این است که اطلاعات را نمی توانند به صورت لحظه ای در هنگام وقوع فاجعه مخابره کنند و بر اساس اطلاعات از پیش جمع آوری شده اقدام به برآورد می شود. در سامانه طراحی شده تحت وب در این تحقیق, کاربران با به اشتراک گذاری لحظه ای داده های مربوط به خسارت واردشده به خود یا سایر افراد، حجم گسترده ای از اطلاعات را برای تحلیل در اختیار تیم مدیریت بحران قرار می دهند. سیستم توسعه داده شده علاوه بر جمع آوری و ذخیره اطلاعات داوطلبانه, آنالیز مکانی Heatmap را برای بررسی پراکنش مکانی و نمایش خسارت انجام میدهد. برای بررسی نتایج, سیستم به صورت فرضی در شهر اشنویه در غرب استان آذربایجان غربی پیاده سازی شده ویک سناریوی فرضی برای زلزله طراحی شد. پس از به اشتراک گذاری اطلاعات توسط مردم داوطلب، Heatmap میزان خسارت در زمان کوتاهی تولید و در اختیار مدیران بحران که در اجرای این طرح همکاری کردند قرار گرفت تا درک مناسبی برای تصمیم گیری در هنگام بروز زلزله های احتمالی به دست آید. نتایج نشان میدهد که پیاده سازی این سیستم علاوه بر کاهش چشمگیر سرعت جمع آوری اطلاعات، کاهش زمان تحلیل اطلاعات بر اساس تولید Heatmap را به همراه خواهد داشت به طوری که استفاده از اطلاعات جغرافیایی داوطلبانه باعث افزایش 6.5 برابری سرعت و زمان تخمین خسارت در مقایسه با روش های سنتی موجود می شود به طوریکه می تواند به عنوان یک روش و دیدگاه نوین در مدیریت مخاطرات محیطی مورد استفاده قرار گیرد.
کلید واژگان: اطلاعات داوطلبانه جغرافیایی، برآورد خسارت زلزله، Heatmap، اشنویهIntroductionThe advent of Web 2.0 enables the users to interact and prepare free unlimited real time data. This advantage leads us to exploit Volunteer Geographic Information (VGI) for real time crisis management. Traditional estimation methods for earthquake damages are expensive and time consuming. In contrast, volunteer and web-based service are near real time with almost no cost services. the lack of accessible real time data collection services causes delayed-emergency responses for disasters like an earthquake. This drawback is critical when we encounter a problem like buried people with valuable seconds for emergency rescue operation. The current research aims to design and implement a web-based volunteer data collection service for rapid estimation of earthquake damages and number of buried people.
MethodologyTo investigate the capacity of VGI in rapid estimation of earthquake, a technical frame work based on the web technologies has been programmed and implemented. The designed service is comprised of server and client sides.The client side is a two-side browser-based service includes volunteers (users) and managers pages. On the user page, volunteers have a web page to enter and fill in the blank forms and taking a photograph of the target building and compare it with pictures. They watch the sample pictures in different level of damages and compare their building with the samples and give a grade of the most similar picture with their building. This grading process leads the server to analysis and classify the incoming data and create the heatmaps for managers. On the managers page two online discrete heatmaps for the both earthquake damages and buried people are displayed. In fact, the heatmaps present the online and real time quantitative situation of the building damages and buried persons as hot spots. These hotspots have the first priority for giving emergency services. The manager page also exploits query tools to request different level of details and classes from the server side. The server side is responsible for receiving, saving, spatial analysis and transmission of the requested result to the client side. This task is carried out by the exchange side. As the citizens are entered to the browser-based service and fill in the blank forms for building damages based on the mentioned guideline and report the buried people, These forms are transmitted to the server side and a geo-server performs spatial analysis including Heatmap, distance and clustering analysis. Then, a real time damage and buried people map are prepared and delivered to the client side. The server updates the created maps whenever a new data is submitted. By this, a real time damage and buried people maps are accessible for official managers to conduct a goal-oriented emergency operation and a preliminary earth quake damages on city building blocks. After the technical frame work has been designed, it was tested in Oshanvieh city by 132 volunteers on the scene for an earthquake.
Results and discussionTo investigate the capability of volunteer geographic information for earth quake afterwards, the designed service mentioned in the methodology was utilized on Oshnavieh city. It was assumed that an earthquake has occurred. 132 volunteers participated for the data collection process. According to the crisis management organization experts, 102 reports of the total 132 reports are correct that shows the accuracy of 76.52 percent. Besides the building damage level based on the defined guideline, the citizens also select their vital needs after the earthquake. the most requested vital needs are warm stuffs, medicine, water and foods respectively. Unfortunately, the participation rate is ranged from some seconds after the earthquake to three days. This means that some citizens have filled and transmitted their data three days after the earthquake. In the following, a comparison between the designed service and traditional earthquake damage estimation methods (in situ) was carried out. The result shows that field-based methods for a city like Oshnavieh need about 20 days. However, the designed volunteer-based service what is programmed and implemented in the current research does this job by 3 days.
ConclusionAs the results show, the proposed service designed in this research implements the damage estimation process 6.5 times faster than the governmental procedures. This proves the efficiency of the research achievements. Besides the velocity, traditional damage estimation methods are expensive compare to volunteer-based data collection and processing which are almost free, scalable and pervasive.
Keywords: Volunteer Geographic Information, Earthquake damage estimation, Heat map, Oshnavieh -
دقت تعیین موقعیت به کیفیت تکنولوژی مورد استفاده بستگی دارد. در حالی که استفاده از تکنولوژی های ارایه دهنده کیفیت بالای تعیین موقعیت مستلزم صرف هزینه زیاد و داشتن تخصص بالا جهت استفاده می باشد، عمدتا تکنولوژی با کیفیت و قیمت پایین تعیین موقعیت ماهواره ای (GPS) و حسگرهای وضعیتی استفاده می شوند که در قالب گوشی های هوشمند به صورت فراگیر در دسترس می باشند. یکی از نکات متمایز این تکنولوژی های ارزان قیمت، میزان تاثیرپذیری آن ها از عوامل تولید کننده نویز می باشد. در این مقاله تاثیر بهبود میزان نویز حاصل از حسگرهای تعیین موقعیت و وضعیت گوشی های همراه بر دقت تعیین موقعیت اشیاء متحرک مانند خودروها با استفاده از تکنیک محلی سازی[1] و تلفیق داده های حاصل از حسگرهای مغناطیس سنج، ژیروسکوپ که در گوشی های همراه هوشمند وجود دارند بررسی شده است. از حسگرهای مزبور پارامترهای آزیموت و زاویه چرخش (رول) استخراج شده است و این پارامترها به همراه شتاب خطی و مختصات جغرافیایی حاصل از GPS برای بهبود موقعیت وسیله نقلیه در الگوریتم کالمن که یک فیلتر پایین گذر برای نویزهای با فرکانس پایین است، تلفیق شده اند. نتایج به دست آمده از اجرای روش پیشنهادی در خط 2 بزرگراه آزادگان شرق به غرب تهران و مقایسه آن با داده های مرجع نشان داده است که خطای تعیین موقعیت خودرو با گیرنده GPS گوشی هوشمند از 0.8274 متر به 0.6768 متر بدون کاهش نویز در فیلتر کالمن توسعه یافته[2]، کاهش یافته است. با کاهش تدریجی نویز، میزان دقت نتایج حاصل از فیلتر کالمن بین مقادیر 0.6763 تا 0.6771 متر در نوسان بوده است که بیشترین بهبود دقت موقعیت خودرو در اثر کاهش 2 درصدی نویز، به مقدار 0.6763 متر حاصل شده است. براساس این نتایج، با وجود این که کاهش اثر نویز می تواند منجر به بهبود موقعیت وسیله نقلیه با استفاده از فیلتر کالمن و مشاهدات حسگرهای گوشی هوشمند شود، نامنظم بودن تغییرات دقت ناشی از کاهش نویز، لزوم یافتن درصد نویز کاهش بهینه را ایجاب می کند. [1]- Dead-reckoning [2]- Extended Kalman Filter
کلید واژگان: تعیین موقعیت خودرو، سامانه تعیین موقعیت جهانی (GPS)، مغناطیس سنج، ژیروسکوپ، تعیین موقعیت محلی، فیلتر کالمنIntroductionThe accuracy of positioning depends on the quality of the technology used. Various technologies and techniques are used for positioning which are classified as absolute and dead-reckoning groups. Classified as absolute positioning technologies,GPS receiversface a variety of different errors in the real-time positioning of a moving object, which reduces the accuracy and precision of the position received from these receivers. On the other hand, dead-reckoning sensors such as gyroscopes and magnetometers which measure real-time state of a moving object also have cumulative errors.Therefore, observations made by all of these sensors are not free from the noise generated during the measurement process.The amount of this noise may vary depending on various factors, including the precision of the sensor and features of the measuring environment. Thus,due to thecorrelation between observations made by these two categories of sensors and the difference between their precision and the nature of their errors,ifnoise is reduced inobservations made by them, their complementary features can be used to reduce errors made by each of them.High-quality positioning technologies are expensive and require high expertise.As a result,lower quality and cheaper global navigation satellite systems (like GPS) widelyavailable in smartphones are more commonly used. One of the most important features of these inexpensive technologies is that they are highly susceptible to factors producing noise.
Methodology
The present studyinvestigates the effect of gradual reduction of noise from data collected by sensors, accelerometers, magnetometers, gyroscopes, and GPS technology in smartphones on improvement of vehicle positioning. The proposed method is based on using acceleration, azimuth, latitude, longitude and roll angle parameters as an input for the Kalman algorithm and investigates the effect of reducing noise produced by these parameters using the least-squares method onimprovement of the resulting position calculated by the Kalman algorithm. To reach this aim, the roll angle parameter is extracted from the angular Velocity() in y-direction and the azimuth parameter is extracted from the magnetic field() in both x and y directions. These parameters along with the acceleration(a) parameter in x and y directions and the geographic coordinates are selected for the Kalman filtering algorithm. In the proposed method, data received from sensors share common sources of noise produceddue to drift, random movements and bias errors.To reduce this noise independently and systematically, method of averaging with the least-squares is usedfor data produced by each sensor. Thus, noise in the received data is considered as a random parameter and noise reduction is performed based on the percentage of changes in the corrected and observed data in the range of 1 to 10%. Kalman algorithm is implemented for 10 levels of noise reduction and the results areinvestigated and compared.The filter calculates and improves an estimate of position vector x, denoted by with minimum mean square error using a recursive model. The main objective is to derive an accurate estimate of for the state of the observed system at time of k. Implementing Kalman filter consists of a prediction step and an updating step. The result is compared todata received from a more accurate reference using RMSE.
Results and DiscussionsThe study area consists of lane no. 2 of the South-North (East-West) Azadegan Highway, Tehran, Iran with a total area of about 26km. Results show that compared to the reference data, using Kalman filter has decreased errorsin positioning the car from 0.8274 m to 0.6763 m with a 2%noise reduction. With a 10% noise reduction, the accuracy of this method has increases to 0.6771 m. This improved accuracy is due to noise reduction and consequently an increase in the correlation between the parameters. Accordingly, the threshold limit for noise reduction and improved positioning using Kalman filter is low and can be recognized by an investigation of a few lowlimits. According to the findings, although reducing the effect of noise can improve positioning with Kalman filter and smart phone sensors, irregular changes in the accuracy of noise reduction methods require determining an optimal percentage for noise reduction.
Keywords: Vehicle Positioning, Global Positioning System, Magnetometer, Gyroscope, Local Positioning, Kalman filter -
فروچاله های نوعی از اشکال کارستی است که به شکل گودال هایی در سطح زمین آشکار می شوند. شناسایی این فروچاله ها در مدیریت منابع آب بسیار حیاتی هستند، چرا که آلودگی این مکان ها باعث آلودگی منابع آب منطقه می شود. حوضه کارستی بیستون پرآو از آن جهت مهم است که باعث ایجاد سراب هایی در شهرهای بیستون و کرمانشاه بوده و بخشی از آب این شهرها را تامین می کند. این پژوهش با هدف شناسایی فروچاله های این حوزه و همچنین شناسایی مناطق مستعد فروچاله انجام شده است. در این پژوهش با تلفیق سیستم اطلاعات جغرافیایی و فرآیند تحلیل شبکه، معیارهای مختلف ایجاد فروچاله نظیر بارش، دما، تبخیر، سنگ شناسی، جنس خاک، شیب، ارتفاع، گسل، آبراهه و پوشش گیاهی رتبه بندی شده اند. نتایج فرآیند تحلیل شبکه نشان داد که سنگ شناسی با 87/24 درصد مهم ترین عامل ایجاد فروچاله است. پس از ترکیب لایه ها، نقشه مناطق محتمل فروچاله مشخص گردید و با استفاده از تفسیر تصاویر World Imagery و Google Earth فروچاله های موجود در منطقه تشخیص داده شد. سپس برای بررسی نتایج کار از شاخص های صحت، دقت و کیفیت استفاده شد که نتایج آن ها به ترتیب 98/42، 41/69 و 55/65 بود. بالا بودن شاخص صحت نشان می دهد کارایی بالا در شناسایی فروچاله های موجود است، اما پایین بودن دو شاخص دیگر بیانگر ضعف روش نیست، بلکه دو شاخص دقت و کیفیت نشان دهنده مناطقی است که احتمال فروچاله شدن را دارند، اما درحال حاضر یا فروچاله نبوده و یا در داده های مرجع نیستند. در نهایت می توان گفت که این روش کارایی مناسبی برای شناسایی فروچاله ها و مناطق مستعد فروچاله ها را دارد.
کلید واژگان: کارست، فروچاله، بیستون پرآو، تحلیل شبکه ای، تصاویر جهانیSinkhole is a type of karst form that appear as pits on the surface of the earth. Identification of these sinkholes is crucial in the management of water resources, as contamination of these sites causes contamination of water resources in the region. Bistoon-Parav Karst Basin is important because it creates mirages in the cities of Bistoon and Kermanshah and provides part of the water to these cities. The purpose of this study was to identify sinkholes in this area as well as identify potential areas of sinkholes. In this research, using the analysis network process, different criteria for sinkhole formation such as precipitation, temperature, evaporation, lithology, soil type, slope, elevation, fault, stream and vegetation are ranked. The results of the analysis network process showed that lithology with 24.87% are the most important cause of the sinkhole. After combining the layers, a map of the possible sinkhole areas was identified. Furthermore, sinkholes in the area were detected using the interpretation of World Imagery and Google Earth imagery. The accuracy, completeness and quality indices were used to evaluate the results of the work, which were 98.42, 69.41 and 65.55, respectively. The high accuracy index indicates high performance in detecting existing sinkholes, but the low two indices do not indicate the weakness of the method, rather, the two indicators of completeness and quality indicate areas that are likely to form sinkholes. However, at the moment they are either not crashed or they are not in the reference data. In the end it can be said that this method is suitable for identifying sinkholes and susceptible areas of sinkholes.
Keywords: Karst, Sinkhole, Bistoon-Parave, ANP, World Imagery -
افزایش پیچیدگی توسعه های چند سطحی و زیرساخت ها باعث تشدید چالش در ثبت قوانین حقوقی، محدودیت ها و مسئولیت های مربوط به ثبت زمین شده است. اگرچه املاک چند سطحی در گذشته نیز ثبت گردیده اند، اما با پیچیدگی املاک, ناتوانی کاداسترهای دو بعدی بیشتر نمایان میشود. از این رو نیاز به یک سیستم کاداستر سه بعدی به عنوان یک ضرورت برای توسعه پایدار کشورها تبدیل شده است. یکی از اجزای مهم کاداستر سه بعدی، سیستم نمایش اطلاعات کاداستر می باشد. در تحقیق حاضر به منظور نمایش کارآمد و موثر مالکیت های زمین و اطلاعات مرتبط به آنها به صورت سه بعدی ، ابتدا ضروریات مختلف مورد نیاز سیستم های تجسم کاداستر سه بعدی در سه گروه خصوصیات کاداستر، خصوصیات نمایش و خصوصیات غیر وابسته طبقه بندی شده است. سپس روند رشد تکنولوژی های تجسم سه بعدی تحت وب شامل تکنولوژی های قدیمی تر مبتنی بر Plug in و مبتنی بر WebGL بررسی شده و تعدادی از مهمترین سیستم ها براساس ضروریات مورد نیاز برای تجسم کاداستر سه بعدی تحت وب مورد ارزیابی قرار گرفته اند و محیط مجازی Cesium بر اساس معیارهای ارزیابی شده، به عنوان محیط مجازی بهتر برای توسعه انتخاب شده است. به منظور توسعه یک سیستم به منظور تجسم کاداستر سه بعدی ابتدا داده های دو بعدی ساختمان با استفاده از نرم افزار های مختلف سه بعدی شده و اطلاعات حقوقی ملک نیز به آن اضافه شده و مدل اطلاعاتی ساختمان (BIM) ایجاد گردید به منظور توسعه سیستم از زبان های HTML5، JavaScript، CSS و کتابخانه WebGL و Cesium API استفاده شده است. و در نهایت یک سیستم مبتنی بر وب برای تجسم کاداستر سه بعدی طراحی شده است. سیستم پیاده سازی شده قابلیت نمایش داده های وکتوری بر مبنای استاندارد WFS و قابلیت اضافه کردن لایه های تصویری مختلف با استفاده از استاندارد WMS را دارد. سیستم نهایی قابلیت هایی مانند تجسم کاداستر سه بعدی تحت وب و نمایش اطلاعات حقوقی املاک بر روی وب را دارد و به کاربر امکان می دهد تا از مدل اطلاعاتی ساختمان بر روی وب پرینت تهیه کرده و به همراه اطلاعات توصیفی ساختمان خروجی بگیرد.
کلید واژگان: کاداستر سه بعدی، WebGL، Cesium، مدل اطلاعات ساختمانComplexity of multi dimension developments and infrastructures intensifies the land related challenges to adopt legal laws, restrictions and responsibilities. Although, multi dimension estates have been registering for many years, as the complexity of the estates are increased, disadvantages of the 2D cadaster is more appeared. Hence, the 3D cadaster has been a necessity for sustainable development. Visualizing is one of the important components of 3D cadaster. In the current research, for efficient and effective visualization of land ownerships and their related 3D information, firstly, the needed essentials of cadaster visualization systems have been classified into 3 groups including: cadaster, visualization and independent properties. Then, the trends of 3D visualization developments for older plugin and WebGL based technologies have been considered. Finally, a number of the most important systems according to the needed criteria for web-based 3D cadaster were evaluated and consequently, Cesium virtual environment has been selected as the best for the development purpose. To develop a system for 3D cadaster visualization, 2D building properties was converted to 3D using different software and then, land law properties were added and subsequently, Building Information Model (BIM) was provided. HTML5, JavaScript and CSS languages along with WebGL library and Cesium API were utilized. The implemented service is able to display WFS-based standard vector layers as well as WMS image of OGC standard. The system has the possibilities of 3D visualization like web-based 3D cadaster visualization and land law properties over the web. This enables the user to make the printed output of BIM along with descriptive information of the buildings.
Keywords: 2D cadster, Cesium, WebGL, BIM -
با توجه به وسیعتر و پیچیده تر شدن فضای بسته داخل ساختمان ها مانند فرودگاه ها، مراکز خرید و بیمارستان ها نیاز به سیستم های ناوبری در فضای بسته (Indoor) جهت راهنمایی کاربر مخصوصا در مواقع بحران مانند زلزله و آتش سوزی احساس میشود. هدف اصلی این پژوهش طراحی و پیاده سازی سیستم تحت وب ناوبری در فضای سه بعدی داخل ساختمان است. این سیستم بطور اتوماتیک مدل داده CityGML را پردازش کرده، و اطلاعات مفهومی، توپولوژی و ژیومتری مانند، پلان طبقات، کاربری فضاهای داخلی و نحوه اتصال این فضا ها را از آن استخراج و سپس یک گراف مسیریابی از اطلاعات استخراج شده تولید می کند. پردازش مدل داده CityGML و آنالیز گراف و مسیریابی در سمت سرور و با استفاده از زبان برنامه نویسی Python انجام شده، و رابط کاربری نیز با استفاده از زبان های توسعه وب مانند HTML، JavaScript، JQuery و AJAX توسعه یافته است. از ویژگی های این وب اپلیکیشن، ارایه مسیر و مدل سه بعدی ساختمان در یک محیط سه بعدی است که با استفاده از کره مجازی Cesium ایجادشده و علاوه بر آن به همراه مسیر محاسبه شده یک راهنمای توصیفی نیز در اختیار کاربر قرار می گیردکه باعث درک بهتر از مسیر شده است. انجام اتوماتیک پردازش مدل داده CityGML و تولید گراف و مسیریابی، توسط موتور نرم افزاری توسعه داده شده در این پژوهش باعث شده تا نیازی به استفاده از هرگونه نرم افزار جانبی برای اینگونه محاسبات نباشد. امکان اجرای این نرم افزار روی هر وسیله ای که به شبکه اینترنت متصل و مجهز به یک مرورگر رایج وب باشد، وجود دارد
کلید واژگان: مسیر یابی سه بعد ی، وب اپلی کیشن، فضاهای داخلی، مخاطرات محیطیNowadays, due to the complexity of interior space of buildings, the need arises for indoor navigation inside such spaces. Indoor navigation systems may be helpful for emergency evacuation of the crowd in natural hazards such as earthquake as well as human-made disasters. These systems can also act as a decision support system for officials. Literature survey on indoor navigation services shows that a large number of researches have been conducted around designing and implementing such systems but automatic indoor spaces topology extraction of the current building information models remains as a challenge. This research aims to introduce, design and implement a web-based indoor navigation system using CityGML data model in LOD4 (level of detail) to overcome the mentioned problem. The architecture of the current research is a browser-based web application service such that the data model processing and graph creation is implemented on the server side, the client interface and calculated path are represented on the client side (browser). Through the CityGML data model processing, firstly, the building navigable spaces such as room floor, doors and stairs are extracted and then, each space as a node and the connections between the nodes are defined as edges, are imported to the navigation graph. Programming on the server side has been performed by Python language and web development languages including HTML (Hypertext Markup language), JavaScript, JQuery and AJAX are used on the client side. Cesium virtual globe has been exploited to display the data model and the calculated route. To evaluate the introduced methodology and designed service, a three floor house with CityGML format in LOD4 was used as the case study. Generally, a client can request a 3D calculated path by selecting the source and destination points on the client browser. The server receives the request and returns the response as a 3D line to the client browser on the Cesium environment. In addition, a descriptive graphical user interface for visual inception of the route is offered to the users on their browser. One of the advantages of the designed web application is that, the service is implemented on the browser. Hence, all devices equipped with a browser have possibility to run the 3D routing service. Besides the mentioned cross-platform capability, average expectation time of the graphical interface loading, data module processing and path finder module are 7.03 milliseconds, 12.42 seconds and 2.44 seconds respectively that visits a valuable criteria in emergency situations like an earthquake phenomenon. Regarding this fact that CityGML is a new data model and supported by a few software, the introduced architecture causes less implementation costs as well as automation of these systems.
Keywords: Indoor Navigation, indoor space, Graph CityGML, Topology, Semantic, Geometry -
بواسطه پیچیدگی عملکردی پدیده آلودگی هوا، از روش های هوش مصنوعی بالاخص شبکه عصبی برای مدل سازی آلودگی هوا استفاده می شود. هدف از این پژوهش دو مدل شبکه عصبی بازگشتی Elman و Jordan در زمینه پراکنش خطا و اعتبارسنجی آنها، به منظور تخمین غلظت ذرات معلق موجود در اتمسفر در شهر اهواز می باشد. پارامترهای مورد استفاده شامل رطوبت، فشار هوا، دما و عمق نوری آئروسل می باشند که مقادیر آن از تصاویر ماهواره ای MODIS و داده های ایستگاه های هواشناسی تهیه شده است. نتایج نشان می دهد که مدل Jordan با مقدار RMSE معادل 219/9 میلی گرم بر متر مکعب نسبت به مدل Elman با مقدار RMSE معادل 228/5 دقت برازش بهتری داشته است. مدل Jordan به دلیل استفاده از حلقه های درونی سبب بروز رسانی مقادیر زمینه شده و این امر موجب افزایش صحت مدل می شود. مقدار شاخص R2 ، که نماینده میزان رابطه خطی بین مقادیر پیش بینی شده با مقادیر واقعی است، برای مدل Jordan معادل 0/5 بدست آمده است که درصد تخمین صحیح 50 درصد داده ها را نشان می دهد. در نهایت با استفاده ازداده های مربوط به غلظت PM10 برای روز 162 که بالاترین میزان غلظت را داشت با روش درونیابی IDW نقشه توزیع مکانی آن تولید شد. با توجه به گران بودن ایستگاه های آلودگی سنجی پیشنهاد می شود از منابع کمکی دیگر مانند اطلاعات داوطلبانه با استفاده از سنسورهای ارزان قیمت موبایل به عنوان ایستگاه کمکی متحرک و کم هزینه جهت افزایش تراکم و پراکنش مناسب ایستگاه ها جهت مدلسازی دقیق تر آلودگی هوا استفاذه شود.کلید واژگان: آلودگی هوا، ذرات معلق، شبکه عصبی مصنوعی، Elman، Jordan MODISDue to the complexity of air pollution action, artificial intelligence models specifically, neural networks are utilized to simulate air pollution. So far, numerous artificial neural network models have been used to estimate the concentration of atmospheric PMs. These models have had different accuracies that scholars are constantly exceed their efficiency using numerous parameters. The current research aims to compare Elman and Jordan recurrent networks for error distribution and validation to estimate atmospheric particular matters concentration in Ahvaz city. The used parameters are relative humidity, air pressure, temperature and aerosol optical depth. The latter one is extracted from MODIS sensor images and air pollution monitoring stations. The results show that Jordan model with RMSE of 219.9 milligram per cubic meter has more accuracy rather than Elman model with RMSE of 228.5. The value of R2 index that shows the linear relation between the estimated from the model and observed values for Jordan is equal to 0.5 that implies 50% estimation accuracy. The value is because of MODIS spatial resolution, inadequacy in numbers as well as spatial distribution of meteorological station inside the study area. According to the results of the current research, it seems that air pollution monitoring stations have to be increased in terms of numbers and suitable spatial distribution. Also, other ancillary data like volunteer geographic air pollution data entry using mobile connected cheap sensors as portable stations may be used to implement more accurate simulation for air pollution.Keywords: Particular matters, artificial neural network, Elman, Jordan, MODIS
-
در اغلب روشهایی که تاکنون برای محاسبه تبخیر- تعرق ارائه شده است از اندازهگیری های نقطهای برای تخمین این متغیر استفاده می شود. بنابراین، فقط در مقیاس محلی مناسب است و به سبب پویایی و تغییرات منطقهای تبخیر- تعرق (ET) قابل تعمیم به حوضه های بزرگ نیست. یکی از مشهورترین الگوریتم های سنجش از دور برای برآورد تبخیر- تعرق واقعی الگوریتم توازن انرژی در سطح زمین (سبال) است. در این الگوریتم از طریق برآورد همه مولفه های انرژی در سطح زمین ازجمله شار تابش خالص، شار گرمای خاک، و شار گرمای محسوس و با استفاده از معادله توازن انرژی به محاسبه تبخیر- تعرق اقدام می شود. هدف از این تحقیق ارزیابی تغییرات مکانی و زمانی تبخیر- تعرق واقعی گندم در محدوده ایستگاه تحقیقات کشاورزی شهرستان حاجی آباد با استفاده از الگوریتم سبال و چهار تصویر لندست 7/ سنجنده+ ETMدر سالهای 1383-1384 است. پس از مقایسه نتایج حاصل از الگوریتم سبال با داده های لایسیمتر، مشخص شد که میانگین تفاضل مطلق بین نتایج یادشده 7/0 میلی متر در روز و ضریب همبستگی برابر 83/0 است. بررسی آماری نتایج با آزمون تی نشان میدهد که اختلاف معنیداری بین نتایج حاصل از الگوریتم سبال و لایسیمتر وجود ندارد. همچنین، نتایج نشان میدهد که الگوریتم سبال از کارایی مناسبی برای برآورد تبخیر- تعرق در منطقه مورد مطالعه برخوردار استکلید واژگان: الگوریتم سبال، تبخیر و تعرق، تصاویر لندست، حاجی آباد، گندمIntroductionEvapotranspiration (ET), which includes water evaporation from soil surface and vegetation transpiration, represents a fundamental process of the hydrological cycle. For water resource management, especially in arid and semi-arid regions, this is a key element. A lot of empirical methods have been developed in order to estimate ET from meteorological data since 50 years ago. The major problem of this method is that it can be used for evaluation of uniform regions near the station. This could not be extracted for other regions. Nowadays, remote sensing based methods often used for calculation of different parameters of ET, are suitable to extract different parameters of ET at proper temporal and spatial scales.Materials And MethodsOne of the most famous algorithms for estimation of actual evapotranspiration is Surface Energy Balance Algorithm (SEBAL). This algorithm calculates all fluxes of the energy balance at the earth's surface including net radiation (Rn), soil heat flux (G), and sensible heat flux (H) from satellite images. Finally, actual ET is computed based on the energy balance at the earth surface. The aim of the current study is to evaluate the spatial and temporal variation of actual evapotranspiration of wheat in Agricultural Research Station of Haji Abad using SEBAL algorithm. The area has geographic coordinates 55° 54 'N, 28° 18' E, with an elevation of 900 m above mean sea level. For this purpose, 4 cloud free Landsat 7 / ETM images are used. Landsat 7 Enhanced Thematic Mapper Plus (ETM) in cloud free satellite images were downloaded from the USGS Earth Explorer site [(http://edcsns17.cr.usgs.gov/NewEarthExplorer/)]
-
الگوی کاربری اراضی توسط بشر در حال تغییر مداوم است. با توجه به پیچیدگی ها و فضای گسترده جواب در تغییر کاربری، وجود اهداف مختلف و متناقض و درنهایت داشتن قیود مختلف، لزوم استفاده از الگوریتم فرا ابتکاری ژنتیک در حل این مسائل را دوچندان کرده است. در تحقیق حاضر مدلی برای بهینه سازی تغییر کاربری اراضی با استفاده از الگوریتم ژنتیک(GA) در بخشی از حوضه طالقان، با اهداف بیشینه کردن سود اقتصادی، سازگاری کاربری ها و کمینه کردن سختی تغییر کاربری ارائه می شود. بهینه سازی با در نظر گرفتن یک سری محدودیت ها در تغییر کاربری انجام شده است. در این تحقیق ابتدا داده های لازم توسط توابع و تحلیل های مکانی سیستم اطلاعات جغرافیایی (GIS) تهیه و سپس فاکتورهای موثر در تابع هدف، با استفاده از تحلیل سلسله مراتبی مورد تجزیه وتحلیل قرار گرفت و درنهایت تغییر کاربری با استفاده از الگوریتم ژنتیک به گونه ای انتخاب شده که تابع هدف نهایی بهینه شود. نتایج نشان می دهد که الگوهای کاربری پیشنهادشده در این مدل می تواند سطح منفعت اقتصادی منطقه را در حدود 48 درصد افزایش دهد؛ با این توضیح که تمامی الگوها تا حد امکان دارای سازگاری بالا و دشواری تغییر اندک هستند.کلید واژگان: تغییر کاربری، الگوریتم فرا ابتکاری ژنتیک، بهینه سازی، منفعت اقتصادی
-
در سال های اخیر با پیشرفت فن آوری های جمع آوری و مدیریت داده، پایگاه داده های بسیار بزرگ پدیدار شده اند. بسیاری از پرس وجوهای تجزیه و تحلیل بر اساس ماهیتشان به تجمیع و خلاصه سازی بخش های بزرگی از داده های در حال تجزیه و تحلیل نیاز دارند. مسئله اصلی در حیطه ی پایگاه داده پردازش کارآمد پرس وجو مخصوصا در سیستم های لحظه ای[1] است که نیازمند رسیدن به جواب آنی می باشد تا اینکه کاربر زمان زیادی را برای دریافت پاسخ صرف نکند. (AQP (Approximate Query Processingبه عنوان روشی جایگزین برای پردازش پرس وجو در محیط هایی که ارائه یک پاسخ دقیق زمان بر است، با هدف ارائه پاسخ تخمینی، کاهش زمان پاسخ را با حذف یا کاهش تعداد دسترسی ها به داده ی پایه میسر می سازد. پردازش [2]In-Database عملکرد شبکه های کامپیوتری را بهبود بخشیده و به طراحی مناسب پرس وجو ها با نتایج نسبتا سریع و دقیق کمک می کند.
در این پژوهش عملیات تجمیع (Sum) در پایگاه داده PostgreSQL روی داده های رستری بارش به دو روش معمولی و بهینه پیشنهاد شده، انجام شده است. بررسی نتایج نشان می دهد که سرعت اجرای تابع Sum با خوشه بندی، 2/27 برابر اجرای این تابع بدون خوشه بندی است و میانگین اختلاف عددی پیکسل های حاصل از اجرای تابع Sum بهینه با اجرای تابع معمولی آن 028/0 می باشد.میانگین زمان اجرای پرس وجوهای معمولی و بهینه برای تابع Sum به ترتیب 211 و 754/7 ثانیه می باشد که نشانگر کارآمد بودن روش پیشنهاد شده در این تحقیق می باشد. نتایج تحقیق حاضر که در حقیقت کاهش معنی دار زمان پاسخ آنالیزهای داخل پایگاه داده ای در داده های رستری می باشد، می تواند در ارائه سرویس های رئال تایم تحت وب مانند هواشناسی، ترافیک و... که نیازمند تحلیل های آنی و جواب لحظه ای می باشند مورد استفاده قرار گیرد.
[1]- Real time
[2]- درون پایگاه دادهکلید واژگان: بهینه سازی تجمیع، پردازش تقریبی پرس و جو، پردازش In، Database، آنالیز رستری، SumIntroductionDuring the recent years, advances in data collection and management technology, have led to create very large databases. In contrast to other data such as numbers and strings, raster data are considered as complicated and contain special characteristics so that they are classified as big data. Due to the nature of spatial analysis queries, the need arises to aggregate or Summarize a large portions of the data to be analyzed. The main issue in the database era is the efficient query processing so that users do not spend long time for retrieving the requests. Traditional query processes return exact answers, however, the answers take more time than what is needed in real time systems. It notable that sometimes the query running time is much more important rather than the accuracy, specially, in real time services.
AQP (Approximate Query Processing) is an alternative method for query processing in time consuming environments that enables the system to provide fast approximated answers. One of the most significant applications of AQP is query optimization. AQP may play a valuable role to increase the speed of spatial queries facing robust and complicated data. It is also an efficient method for recognizing the needed data and subsequently, minimizing the cost of aggregation queries. Since 1980s, utilizing the approximation methods have been initiated for decision support systems. Also, AQP has been noticed to address some problems in database era during the past decade. The current technics in various research frontiers are only useful for relational database systems (Azevedo, et al., 2007(. The main idea behind in-database processing is elimination of big data sets transmission to disjointed programs. Since, in-database processing that all analysis are implemented into database, it offers fast implementation, scalability and security. Hence, In-Database processing improves the computer network productivity and participates in well-suited designing of fast response queries.MethodologyThe current research aims to compare traditional and optimized Sum aggregation operation to decrease the running time of spatial queries into PostgreSQL database. To undertake the research, 60 precipitation rasters have been used. The study area is located in Lorestan province and precipitation gauging stations were used as primary data. Rasters data have been created from monthly precipitation data for the period of 2010-2014 using Krigging interpolation method and entered into PostgreSQL database using Raster2pgSQl extension. In the following, rasters pixels are stored into their related tables. In optimized aggregation method, firstly, raster data are clustered by the written similarity function. The used functions have been written by PL/pgSQL language in PostGIS. The execution steps of Sum function are as the following: creating the similarity function, performing the function, running the optimized query and consequently, resulting the approximated query respectively.
Subsequently, one raster is selected from each cluster and it is multiplied by the number of rasters belong to the given cluster. The resulted raster is entered to Sum function as the representative of the cluster. In each cluster, the number of implemented arithmetic operations is reduced as the following formula: (number of rasters in the cluster-1) *rows*columns of the given raster). Using the mentioned method, the number of arithmetic operations are significantly reduced and prepares the fast approximate answers. Finally, for accuracy assessment, the error of each method was approximated by calculating mean relative error, DI (difference indicator) error and relative error for each raster. Finally, the achieved results were analyzed.
It is mentionable that the user may make a decision whether the resulted accuracy is acceptable for a particular project or an exact query has to be executed.Results And DiscussionIn this research to compare the traditional and optimized Sum function, five scenarios have been implemented. The results show that the optimized Sum function is 27.2 times faster than the traditional function. The average difference of pixel values between the traditional and optimized one is 0.028. Consequently, the query running time for the optimized and traditional Sum is 7.754 and 211 seconds respectively, which implies the efficiency of the used method (optimized Sum).
It is notable that the accuracy of the optimized method depends on the nature and homogeneity or heterogeneity of the used rasters.
The valuable decreasing of the in-database spatial query running time may be used to offer real time web-based services such as meteorology, traffic and etc., which need to real time analysis and fast retrieving responses.Keywords: Aggregation optimization, Approximate Query Processing, In-Database processing, raster analyses, Sum -
مسئله دفن مواد زائد همواره از سال های دور گریبان گیر بشر بوده است. مسائل و مشکلات ناشی از دفن زباله ها سبب شده است تا در برخی از کشورهای جهان زباله دان های روباز جای خود را به محل دفن بهداشتی بدهند. به همین دلیل، موضوع دفن مواد زائد یکی از بحث های مهم در زمینه مهندسی محیط زیست است. در این راستا، پژوهش حاضر در پی یافتن محل مناسب دفن پسماندهای شهری اهواز، طی دو مرحله، با استفاده از تکنیک GIS و روش ترکیبی
FAHP- ELECTRE است. در مرحله اول، داده های معیارهای (23 معیار) موثر در انتخاب محل دفن پسماند از سازمان های مربوطه جمع آوری شد و با استفاده از سیستم های اطلاعات جغرافیایی تجزیه و تحلیل و استانداردسازی شدند. سپس با ارائه نظر کارشناسی و به کارگیری روش FAHP هریک از معیارها وزن دهی و 17 معیار در این مرحله همپوشانی شدند و حاصل آن 5 مکان مناسب دفن بود که در شمال شرقی و شرق شهرستان اهواز واقع شده اند. در مرحله دوم 5 گزینه به دست آمده با به کارگیری 6 معیار باقی مانده در روش ELECTRE اولویت بندی و در نهایت 3 گزینه با ارزش یکسان به عنوان بهترین مکان های دفن انتخاب شدند. نتایج نشان داد گزینه های انتخابی در مقایسه با مراکز دفن جدید (صفیره) و قدیم (برومی) که در جنوب و جنوب شرقی، در مسیر بادهای شرجی و مناطق با سطح ایستابی بالا قرارگرفته اند، در مکان بهتری واقع شده اند. همچنین، رویکرد ترکیبی FAHP و ELECTRE به دلیل لحاظ کردن ماهیت نادقیق پدیده ها در وزن دهی و رتبه بندی گزینه ها، کارایی بهتری نسبت به روش های پیشین انتخاب مراکز دفن جدید (صفیره) و قدیم (برومی) دارد.کلید واژگان: مکان یابی، سیستم های اطلاعات جغرافیایی (GIS)، فرآیند تحلیل سلسله مراتبی فازی FAHP) (ELECTRE، اهواز
Landfilling is one of the important suffering issues for human being. Problems caused by landfilling have led some countries to gather urban waste in unprotected area. Because of the mentioned issue, landfilling is a significant discussion in environmental engineering. This research aimed at selecting suitable sites for garbage massing in Ahvaz urban area via integrated ELECTRE-AHP approach using GIS techniques in two main steps. At the first step, 23 effective criteria in landfilling site selection were collected from the in charge of organizations. The criteria were standardized and analyzed using Geographical Information Systems. After the standardization process, expertise opinion was applied and FAHP method was applied for criteria weighting process. Finally, each of the weighting criteria and 17 criteria were overlapping at this stage. The outcome of this method is 5 suitable sites for landfilling in the northern east and east region of Ahvaz. At the next step, 5 sites achieved from the previous step were ranked by ELECTRE method using the 6 remained criteria. The achievement of implementing this step is 3 options with the same worthiness for landfilling. The results show that the selected sites, compared to the current garbage mass place located on humid winds flows as well as high water level in the south and southeast region, have the better conditions in terms of health and sanitary problems. Also, integrated ELECTRE-AHP approach due to considering the relative nature of criteria values in weighting and ranking, has more efficiency compared to prior methods used to locate the current landfilling sites (Safireh and Brumi region).Keywords: Site Selection, Geographic Information Systems (GIS), FAHP, ELECTRE, Ahvaz -
دسترسی به اطلاعات لحظه ای از منطقه و موقعیت جغرافیایی آسیب دیدگان در سرعت و کیفیت امدادرسانی به سیل زدگان نقش مهمی در کاهش خسارات جانی و مالی ناشی از آن ایفا میکند. جمع آوری و پردازش اطلاعات لحظه ای سیل از قبیل وضعیت و موقعیت دقیق آسیب دیدگان با توجه به امکانات سخت افزاری مورد نیاز و اهمیت زمان به موقع پاسخ به نیاز سیل زدگان، بسیار پرهزینه، زمان بر و از جهاتی در کشور ما ناممکن می باشد. در جهت رفع این مشکل ، تحقیق حاضر بر آن شده است تا از ظرفیت اطلاع رسانی خود حادثه دیدگان در سیل استفاده کرده و امکان جمع آوری و مدیریت لحظه ای دقیق اطلاعات مکانی و غیر مکانی از طریق مشارکت حادثه دیدگان سیل جهت امدادرسانی سریع و هدفمند متناسب با نیاز اعلام شده از هر حادثه دیده فراهم شود. در این تحقیق با استفاده از فناوری متن باز سیستمی طراحی شده است که بدون نیاز به نصب نرم افزار خاص و با استفاده از مرورگر، متقاضی امداد می تواند با ارسال موقعیت مکانی دقیق خود که توسط سیستم طراحی شده به صورت اتومات برداشت می شود و همچنین اطلاعات مولتی مدیای دیگر همچون عکس و اطلاعات نوشتاری، نوع کمک درخواستی و آسیب وارده را در هر لحظه به مدیران امداد و نجات اعلام کند. این اطلاعات پس از آنالیز در ژئوسرور،به صورت نقشه لحظه ای در دسترس مدیر امداد و نجات قرار دارد و میتواند در تصمیم گیری برای نقشه بندی نوع کمک و امداد برای هر نفر و هم به صورت خوشه ایبرای گروهی از افراد در یک محدوده مشخص جغرافیایی استفاده شود. در طراحی سامانه از معماری واسط کاربری برای آسیب دیدگان و مدیران بخش امدادرسانی و در اجرای سامانه از نرم افزارهای متن باز، زبان های برنامه نویسی سمت سرور و سمت کاربر، ژئوسرور و استاندارد WFS برای ارائه ی مکانمند درخواست های کمک بهره گرفته شده است. نتیجه تحقیق ارائه یک سامانه تحت مرورگر بوده که در واسط کاربری، آسیب دیدگان امکان زوم خودکار بر روی موقعیت آن ها و ارسال درخواست کمک شامل مشخصات فردی و نوع آسیب وارده با استفاده از زبان های PHP و SQL فراهم شده است. در واسط کاربری مدیران، درخواست های کمک ارسال شده بصورت مکانمند و متمایز با استفاده از Openlayers و استاندارد WFS به صورت آنلاین به نمایش درمی آیند. اجرای سامانه با این متدلوژی باعث عملی شدن جمع آوری و ارسال داده های دقیق و لحظه ای و متعاقبا کاهش هزینه های جمع آوری داده های جغرافیایی و غیر جغرافیایی تا حد بسیار زیاد ، تسریع در ارسال درخواست کمک توسط آسیب دیدگان، عملکرد بهتر و تسریع در امر امدادرسانی و خوشه بندی هدفمند مکانی کمک رسانی پس از وقوع سیل می شود و این سرویس در مناطقی مانند کشور ما که ار کمبود امکانات تهیه اطلاعات لحظه ای رنج می برد از اهمیت زیادی برخوردار است.کلید واژگان: اطلاعات داوطلبانه جغرافیایی، سیل، وب سرویس، امداد و نجاتAccessibility to precise spatial and real time data plays a valuable role in the velocity and quality of flood relief operation and subsequently, scales the human and financial losses down. Flood real time data collection and processing, for instance, precise location and situation of flood victims may be a big challenge in Iran regarding the hardware facilities (such as high resolution aerial imagery devices) owned by the correspond organizations. To overcome the mentioned inabilities as well as reducing the financial costs for real time monitoring purpose of a flood, the current research intended to use the capacity of the flood victims and other volunteers to collect and upload real time data to rescue themselves. By means of this, flood real time spatial and non-spatial data collection is applicable via public and per-person participation based on the needs of each victims. The current Open Source workflow has been so designed that by using a browser like Mozilla, Explorer, Chrome and etc., and without the need for installing any software, the victim transmits his/her exact geographic location (captured automatically by the designed web service) and other multimedia data such as video-photo. Also, the flood-affected person announces the type of the damage and consequently, demanded rescue operation to the managers as a text information. After data processing on the server, the information is represented as a real time rescue map for decision making. The rescue plan may be mapped based on the singular aid as well as plural plan in the cluster form specialized for a particular group of victims in each bounding box. To design the web service, a client architecture for victims, other volunteers and managers has been developed, for implementing the service, Open Source technologies, server-side and client-side programming languages, Geoserver and WFS (Web Feature Service) standard adopted by OGC for spatially-enabled representation of victims demands, have been exploited. The research result is a browser-based service in which the client service offers automatic zooming to the current location of the clients and sends the rescue request including personal identifications and the type of injury using PHP (stands for Hypertext Preprocessor) and SQL (Structured Query Language). In the other side, on the client side designed for managers, the requested rescue submitted by the victims and other volunteers are mapped and displayed real time by OpenLayers and WFS. The result introduces an efficient applicable method for gathering real time and high accuracy geographic-multimedia-text data collection and consequently, extremely reduces the relief operation costs. Finally, the proposed methodology causes better performance and spatially clustering of victims to decrease the aftermath of the flood in a region like Iran suffers from the lack of expensive hardware technologies for precise data collection and transmission.Keywords: Volunteer Geographic Information, Flood, Web service, relief operation
-
فصلنامه فضای جغرافیایی، پیاپی 56 (زمستان 1395)، صص 263 -276شبکه ارتباطی موجود شهر بابل به لحاظ کارکرد گردشگری، جمعیت زیاد، کاربری بالای مسکونی و تجاری و... قادر به تحمل حجم بالای وسایل نقلیه نمی باشد. هدف مطالعه حاضر ارزیابی شبکه حمل و نقل موجود این شهر و مقایسه آن با کارآمدی شبکه حمل و نقل پیشنهادی طرح تفصیلی شهر بابل تهیه شده توسط اداره کل راه و شهرسازی استان مازندران می باشد. در تحقیق حاضر با به دست آوردن پارامترهای هم بندی و دسترسی به صورت کمی، کارآمدی شبکه در وضعیت موجود و پیش بینی شده اندازه گیری شد. شاخص های آلفا و گاما که بیانگر میزان هم بندی بین خطوط ارتباطی است، به ترتیب 21 و 18 درصد برای 92 گره و 58 یال ارتباطی وضعیت موجود، و 19 و 21 درصد برای 488 گره و 283 یال ارتباطی وضعیت پیشنهادی طرح تفصیلی به دست آمد. درنهایت، مهم ترین راه های ارتباطی شهر بابل بر پایه تعداد مراحل رسیدن به دورترین نقطه در شبکه، تعداد اتصالات مستقیم و مجموع اتصالات مستقیم و غیرمستقیم در شبکه اولویت بندی شد. نتایج به دست آمده از شاخص های آلفا و گاما و نیز مطالعات میدانی نشان داد که به دلیل مقادیر کم این شاخص ها کارآمدی شبکه حمل و نقل شهری موجود شهر بابل نه تنها از میزان بسیار پایینی برخوردار است (زیر 50 درصد)، بلکه باتوجه به پیشنهادات طرح تفصیلی مصوب درخصوص اضافه نمودن شبکه معابر جدید، میزان کارآمدی پایین تر نیز خواهد شد.کلید واژگان: GIS، شاخص آلفا، شاخص گاما، هم بندی، دسترسی، شهر بابلGeographic Space, Volume:16 Issue: 56, 2017, PP 263 -276Babol city has tourism function which during the peak seasons of the year the transportation network cannot cope with the high volume of vehicles. The present study aims to investigate the efficiency of the Babol city traffic network through the linear element analysis. In this paper by using network analysis in GIS and also by calculating connectivity and accessibility, the efficiency of the Babol city was investigated. Alfa and gamma indicators show the level of connectivity and accessibility of the urban networks. The figures of 21% and 18% were obtained for 92 join points and 50 main network lines for exist condition and 19% and 21% were obtained for 488 join points and 283 main network lines for suggesting plan. Finally the most important roads of the city were studied by the number of direct and indirect joins to approach to most remote point of the network. The results revealed that the urban network of the Babol has severe problems to connect and create accessibility and therefore there is a high level of time and capital waste.Keywords: connectivity, accessibility, GIS, Alfa, gamma indicators, Babol
-
به تازگی، تئوری استفاده از بازی های جدی در زمینه ی شبیه سازی و مدیریت مخاطرات محیطی مورد توجه قرار گرفته است. در این تحقیق، از ترکیب بازی های ویدئویی و سیستم اطلاعات جغرافیایی یک سرویس Game GISطراحی و اجرا شده است. این سرویس با پشتیبانی از پایگاه داده ی مکانی در پی کمک به مدیریت بحران با هدف به حداقل رساندن آسیب پذیری ناشی از زمین لرزه است. یکی از مهم ترین مشخصه ها و تفاوت های Game GIS با سایر بازی های موجود به مختصات، ابعاد و خصوصیات واقعی مکانی آن بازمی گردد که می تواند نقش مهمی را در کنار شیوه های سنتی مقابله با بحران و تصمیم گیری های صحیح در زمان وقوع بحران ایفا کند. در تحقیق حاضر، ابتدا بر اساس مطالعات کتاب خانه ای معیارهای موثر برای آسیب پذیری ساختمان در برابر زلزله تعیین شد. پس از جمع آوری داده ها و اطلاعات مورد نیاز از طریق برداشت میدانی و بلوک های آماری، پایگاه داده مکانی ای ایجاد گردید. سپس، میزان اثرگذاری هر کدام از معیارهای مذکور بر اساس ایجاد ماتریس مقایسه ی دودویی و پرسش گری از افراد متخصص در موضوع مطالعه برآورد شد. در نهایت، برای ایجاد ارتباط بین عوامل تاثیرگذار و تخمین میزان آسیب پذیری نهایی هر ساختمان، فرمولی ارائه گردید که در آن همه ی عوامل موثر با تاکید بر سطح اثرگذاری هر کدام دخالت داده شدند. برای طراحی Game، پیاده سازی داده های موثر در سیستم و اجرای آن در قالب نرم افزار، شش کلاس مختلف با اهداف و عملکردهای متفاوت طراحی گردید. هر کدام از این کلاس ها وظیفه ی اجرا و کنترل قسمتی از نرم افزار و دستورهای طراحی شده در آن را بر عهده دارند. همچنین، نمایش بخش های مختلف بازی در قالب شش فرم متفاوت ارائه شد که هر کدام از آن ها وظیفه ی نمایش دستورها و نماهای گوناگون بازی را بر عهده دارند. سرانجام نرم افزار در قالب یک بازی جدی با محوریت مدیریت بحران زمین لرزه در چهار مرحله مختلف تهیه شد. بازی در مرحله ی اول با زمین لرزه ی 5 ریشتری آغاز می شود و در مرحله ی چهارم با زمین لرزه ی 8 ریشتری پایان می یابد. در هر مرحله از بازی با توجه به موارد ذکر شده میزان تخریب و مسیریابی انتقال مجروحان و کمک رسانی شبیه سازی می شود و فردی که بازی می کند بر اساس موارد گوناگون (سرعت عمل و...) امتیاز می گیرد و در صورتی که امتیاز لازم را کسب کند به مرحله ی بعدی که شدت زلزله یک ریشتر بیشتر است صعود می کند. نرم افزار طراحی شده می تواند در شبیه سازی زلزله در ریشترهای مختلف برای برنامه ریزی کاهش تبعات زلزله، واکنش سریع، مانورها و آموزش قبل از وقوع زلزله استفاده شود.کلید واژگان: مدیریت بحران، زمین لرزه، Game GIS، تبریزThe term "Game GIS implies to real spatially enabled games in which a special part of the world is virtually simulated, represented and managed. In fact, game GIS is an integrated system consists of video games and geographical information systems, aimed to simulate and representing spatially enabled environment. The achieved result of implementing a game GIS service can be exploited before a crisis for wise designing of a city and diminution of the aftermath casualties. As the decision making process plays the key role to reduce the losses, the need arises for using the models as much as close to the reality. By this, it is possible to use the virtual world in in the form of a game rather than experiencing the real world with real wounded and killed persons in. This enables us to recognize and manage a test environment for promoting the managing the real environment of a city during and before a natural hazard disaster like an earthquake. The game GIS may be counted as a service for sharing and dissemination of spatial information as well as online GIS to have a visual and synoptic management of the earth plant facing various disasters. The current research is aimed to design and implement a software architecture for an earthquake game in Tabriz city (Iran).
The study area is district 10 of Tabriz located within a fault zone. According to field surveys, 82.1 percent of buildings in the study area may be vulnerable against earthquake in terms of the quality of building construction.
Methodology of the research to design, program and implement the game GIS service are undertaken as the following processes: data collection, database creation and software production.
The collected data includes master plan maps of the district 10, building quality, number of floors, building façade materials, age of building, street network (adopted from the master plan of Tabriz) and population of each parcel. Also, some regions are assumed as hospital, relief-rescue center and treasury money.
To design the software, 2D environment of MapControl and for implementing the game into the 2D environment, ArcEngine of ArcGIS have been exploited. The mentioned engine gives us possibility to use of analysis and modelling capabilities as much as closer to the ground reality which are compatible with available geometry of the terrain (Amirian, 2013, 17-19). The MapControl is a framework in which the map and game area are displayed. Symbology is used to show the persons as well as equipments. Briefly, the stages undertaken during the current research can be explained as the following:Data collection based on available sources via field surveying.
Data processing and creating a database from street networks and building owned the age, materials, floors fields.
Calculation of vulnerability rate for each building separately as well as the amount of deconstruction damage per Richter.
Drawing the street and alley network to prepare network analysis dataset.
Preparing special network analysis database and evaluation in various situations.
Using the gained layers and implementation of the scenario.
After that, the conceptual architecture of the software has been designed based on the scenario.
The game GIS services has been designed with 6 different classes offer numerous functionalities responsible for displaying program commands and different views of the game. Finally, the service is designed and implemented in a real schema for crisis management application. The resulted game is played in 4 stages. In the first stage, the player starts with a 5 Richter magnitude earthquake and ends while the player gets to 8 Richter. The designed software simulates the destruction rate of buildings based on the influential factors, wounded transfer routing and rescue operation. The game player gains credit according to his quickness and agility. The player would go to the next stage with one Richter magnitude higher, if gains enough credits during each stage. The result of the current research as a Game GIS service, can be used in earthquake simulation happens in various magnitudes for management of decreasing the effects of earthquake, quick reaction, maneuver and education. Considering the achieved results, designing and performing the game GIS service over the web based on open source technologies rather than being desktop and commercial service, can be suggested as a new research frontier for the future researchers.Keywords: Hazards management, earthquake, Game theory, game GIS, Tabriz
- در این صفحه نام مورد نظر در اسامی نویسندگان مقالات جستجو میشود. ممکن است نتایج شامل مطالب نویسندگان هم نام و حتی در رشتههای مختلف باشد.
- همه مقالات ترجمه فارسی یا انگلیسی ندارند پس ممکن است مقالاتی باشند که نام نویسنده مورد نظر شما به صورت معادل فارسی یا انگلیسی آن درج شده باشد. در صفحه جستجوی پیشرفته میتوانید همزمان نام فارسی و انگلیسی نویسنده را درج نمایید.
- در صورتی که میخواهید جستجو را با شرایط متفاوت تکرار کنید به صفحه جستجوی پیشرفته مطالب نشریات مراجعه کنید.