فهرست مطالب

نشریه فناوری اطلاعات و ارتباطات ایران
سال چهاردهم شماره 51 (بهار و تابستان 1401)

  • تاریخ انتشار: 1401/07/04
  • تعداد عناوین: 16
|
  • وحید کیانی صفحات 1-15

    پوشش حداکثری منطقه یک هدف مهم در چیدمان حسگرهای شبکه حسگر بی‌سیم است که تحقق آن به افزایش توان نظارتی شبکه کمک می‌کند. در بسیاری از کاربردها حسگرها ابتدا به صورت تصادفی در منطقه تحت نظارت توزیع می‌شوند، سپس چیدمان آن‌ها باید طوری اصلاح شود که پوشش شبکه حداکثر گردد. الگوریتم نیروی مجازی (VFA) سعی می‌کند تا با در نظر گرفتن نیروهای دافعه و جاذبه بین حسگرها از یک چیدمان اولیه به یک چیدمان مطلوب‌تر برسد. در این مقاله از ترکیب سیستم فازی تاکاشی-سوگنو با الگوریتم نیروی مجازی برای دستیابی به چیدمان مجدد بهتری از حسگرها استفاده می‌شود. برای تنظیم وفقی پارامتر فاصله بهینه حسگرها در این مقاله دو روش فازی مطرح و اثر هر یک از آن‌ها بر افزایش کارآمدی الگوریتم نیروی مجازی بررسی خواهد شد. مقایسه عملکرد روش‌های پیشنهادی با روش‌های رقیب نشان می‌دهد که تنظیم هوشمندانه و وفقی فاصله بهینه به کمک سیستم فازی باعث دستیابی به نرخ پوشش بالاتر نسبت به الگوریتم نیروی مجازی سنتی (VFA)، الگوریتم نیروی مجازی بهبودیافته (IVFA)، الگوریتم توزیع مجدد فازی (FRED)، و روش‌های متاهیورستیک GA و PSO خواهد شد. همچنین، روش‌های پیشنهادی مبتنی بر نیروی مجازی نسبت به GA و PSO به زمان بسیار کمتری نیز برای حل مسیله نیاز دارند.

    کلیدواژگان: پوشش حداکثری، جایابی حسگر، الگوریتم نیروی مجازی، سیستم فازی
  • بهروز الیاسی، معصومه صادقی، نسرین دسترنج، مهدی حسین پور، طاهره میرسعیدقاضی صفحات 17-34

    تقویت دسترسی به داده‌های باز تضمینی برای باروری امر پژوهش و نوآوری و توسعه راهکارهای مقابله با چالش‌های پیچیده اجتماعی در داخل کشور است. سیاست‌های پیشنهادی OECD و دیگر محافل علمی، تاکیدی بر این راهبرد است. اما پیاده‌سازی آن‌ها قطعا نیازمند برپایی سیستم‌های حکمرانی، فرایندهای شفاف‌سازی، و تضمین اعتماد به حوزه‌های پژوهشی و کسب‌وکاری است. بخش عمده و مهمی از ارزشمندترین منابع داده‌ای ماهیت شخصی دارند و گردآوری، ذخیره و پردازش آنها در فضای مجازی منبع سرشار درآمدزایی برای کسب‌وکارهای داده‌محور محسوب می‌گردد. از جمله چالش‌های اصلی در مسیله اعتمادسازی، اتخاذ سیاست‌های حفظ حریم خصوصی و تعیین حدود مالکیت این داده‌هاست. این مقاله با تبیین پیچیدگی مفهوم مالکیت در زیست‌بوم داده‌های شخصی، کارامدی سیاست‌های پیشنهادی همچون گزارشات OECD در زمینه تقویت دسترسی باز را به چالش می‌کشد. همچنین، به اجمال کاستی‌های موجود در قوانین تجارت الکترونیکی و جرایم رایانه‌ای کشور مطرح می‌شود. سپس، با هدف پیشنهاد یک سیاست دسترسی به داده‌های باز، عطف به حساسیت داده‌های شخصی، ابتدا نتایج تفصیلی یک مطالعه میدانی شامل معیارهای تحقق هدف و سیاست‌گذاری‌های ممکن به شیوه دلفی استخراج می‌گردند. پژوهش انجام شده حاکیست سطح آگاهی عمومی در کشور از قوانین حمایت‌کننده موجود در این زمینه، حتی در یک جامعه هدف متعالی، از وضع مطلوبی برخوردار نیست. همچنین، دیدگاه عمومی از امانتداری نسبت به داده‌های شخصی و امید به اجرای موثر قوانین در موارد تخلف رضایت‌بخش نیست. در انتها، با ارزیابی مجدد میدانی به شیوه FAHP ، گزینه‌های سیاست‌گذاری مورد سنجش و تحلیل قرار می‌گیرند و الزامات ضروری برای اجرای سیاست منتخب پیشنهاد می‌شوند.

    کلیدواژگان: سیاست گذاری، دسترسی، داده های شخصی، حریم خصوصی، مالکیت
  • سهیلا شفیع زاده، زهرا بهشتی صفحات 37-54

    مساله‌ی مسیریابی وسایل نقلیه، یکی از مهم‌ترین مسایل مدیریت زنجیره‌ی تامین است، زیرا تخصیص مطلوب وسایل نقلیه تاثیر زیادی بر کاهش هزینه‌ها دارد. این مساله در دسته مسایل سخت قراردارد و الگوریتم های دقیق کارایی لازم را برای حل آن ندارند. از این رو، می توان از الگوریتم فراابتکاری استفاده کرد که راه حل های خوبی برای حل مسایل سخت ارایه می دهند. یکی از این الگوریتم ها، الگوریتم جهش قورباغه مخلوط شده است که از کارایی بالایی برخوردار است، اما در بعضی مواقع، تنوع جمعیت در آن به دلیل گروه-بندی قورباغه ها به سرعت کاهش می یابد، از این رو در دام بهینه های محلی گرفتار می آید. در این تحقیق، الگوریتم جهش قورباغه مخلوط شده فرد محور ارایه می گردد که از طریق تبادل اطلاعات سراسری و محلی، قابلیت اکتشاف و بهره برداری الگوریتم قورباغه را بهبود می دهد. به ‌منظور ارزیابی الگوریتم پیشنهادی، از مسایل مسیریابی در ابعاد مختلف استفاده می گردد و نتایج آن با چند الگوریتم بهبود یافته جهش قورباغه مخلوط شده، شبیه سازی تبرید و الگوریتم ژنتیک مقایسه می شود. نتایج نشان می دهند که الگوریتم پیشنهادی، از نظر طول مسیر طی شده برای بهترین نتایج، میانگینی برابر با 1130.442 دارد و الگوریتم بعدی شبیه سازی تبرید با میانگینی برابر 1228.725می باشد. سایر الگوریتم ها با اختلاف زیادی در رده های بعدی قرار دارند.

    کلیدواژگان: مساله مسیریابی وسایل نقلیه، الگوریتم جهش قورباغه مخلوط شده، هزینه مسیر، جهش، عملگر ترکیب
  • حسن علی اکبرپور، محمدتقی منظوری شلمانی، امیرمسعود رحمانی صفحات 55-72

    با گسترش وب و در دسترس قرار گرفتن حجم زیادی از اطلاعات در قالب اسناد متنی‌، توسعه سیستم‌های خودکار خلاصه‌سازی متون به‌عنوان یکی از موضوعات مهم در پردازش زبان‌های طبیعی در مرکز توجه محققان قرار گرفته است. البته با معرفی روش‌های یادگیری عمیق در حوزه پردازش متن، خلاصه‌سازی متون نیز وارد فاز جدیدی از توسعه شده و در سال‌های اخیر نیز استخراج خلاصه‌ چکیده‌ای از متن با پیشرفت قابل‌توجهی مواجه شده است. اما می‌توان ادعا کرد که تاکنون از همه ظرفیت شبکه‌های عمیق برای این هدف استفاده نشده است و نیاز به پیشرفت در این حوزه توامان با در نظر گرفتن ویژگی‌های شناختی همچنان احساس می‌شود. در این راستا، در این مقاله یک مدل دنباله‌ای مجهز به سازوکار توجه کمکی برای خلاصه‌سازی چکیده‌ای متون معرفی شده است که نه‌تنها از ترکیب ویژگی‌های زبانی و بردارهای تعبیه به‌عنوان ورودی مدل یادگیری بهره می‌برد بلکه برخلاف مطالعات پیشین که همواره از سازوکار توجه در بخش کد‌گذار استفاده می‌کردند، از سازوکار توجه کمکی در بخش کدگذار استفاده می‌کند. به کمک سازوکار توجه کمکی معرفی‌شده که از سازوکار ذهن انسان هنگام تولید خلاصه الهام می‌گیرد، بجای اینکه کل متن ورودی کدگذاری شود، تنها قسمت‌های مهم‌تر متن کدگذاری شده و در اختیار کدگشا برای تولید خلاصه قرار می‌گیرند. مدل پیشنهادی همچنین از یک سوییچ به همراه یک حد آستانه در کدگشا برای غلبه بر مشکل با کلمات نادر بهره می‌برد. مدل پیشنهادی این مقاله روی دو مجموعه داده CNN/Daily Mail و DUC-2004 مورد آزمایش قرار گرفت. بر اساس نتایج حاصل از آزمایش‌ها و معیار ارزیابی ROUGE، مدل پیشنهادی از دقت بالاتری نسبت به سایر روش‌های موجود برای تولید خلاصه چکیده‌ای روی هر دو مجموعه داده برخوردار است.

    کلیدواژگان: یادگیری عمیق، خلاصه سازی چکیده ای، معماری کدگذار-کدگشا، سازوکار توجه کمکی، ویژگی های زبانی
  • نوذر ابراهیمی لامع، فاطمه ثقفی، مجید قلی پور صفحات 73-82

    سیستم های توصیه گر، وظیفه راهنمایی و هدایت کاربر جهت انتخاب بهینه آیتم ها، مطابق با علایق و سلیقه های آنها را بر عهده دارند. علی رغم حدود سه دهه سابقه تحقیقات بر روی سیستم های توصیه گر، ولی موضوع مذکور هنوز یکی از چالش های تحقیقاتی به روز می باشد. این سیستم ها با شخصی سازی پیشنهادات، باعث صرفه جویی در وقت و افزایش رضایت کاربران می گردند. این سیستم ها در اغلب سایت های معتبر خارجی و داخلی مورد استفاده قرار گرفته اند. در سیستم های توصیه گر، مهم ترین و پرکاربردترین روش پالایش داده ها، روش پالایش اشتراکی می باشد. در این مقاله نسبت به پیاده سازی سه سیستم توصیه گر فیلتر اشتراکی مبتنی بر محاسبه ضریب همبستگی بین کاربران، انتخاب تعداد بهینه همسایه ها و محاسبه امتیازات وزنی اقدام شده و بهترین روش با کمترین خطا به عنوان مدل مورد نظر انتخاب شده است. ورودی سیستم داده های تحقیقاتی مووی لنز با حدود 100 هزار امتیاز می باشد. روش بکار رفته نسبت به آخرین مقاله ای که از روش همبستگی ترکیبی استفاده کرده است 3/29 درصد مقدار خطای RMSE را بهبود می بخشد.

    کلیدواژگان: سیستم های توصیه گر، ضریب همبستگی، فیلتر اشتراکی، فیلم
  • شایسته طباطبائی، حسن نصرتی ناهوک صفحات 83-95

    در این مقاله، به منظور افزایش دقت ردیابی هدف سعی در کاهش انرژی مصرفی حسگرها با یک الگوریتم جدید برای ردیابی هدف توزیع شده بنام الگوریتم جستجوی شکار دارد. روش پیشنهادی با پروتکل DCRRP و پروتکل NODIC مقایسه شده است که برای بررسی عملکرد این الگوریتمها از شبیه سازOPNET ورژن 11.5 استفاده شده است. نتایج شبیه سازی نشان می دهد که الگوریتم پیشنهادی از نظر مصرف انرژی، نرخ تحویل سالم داده و نرخ گذردهی نسبت به دو پروتکل دیگر بهتر عمل می کند.

    کلیدواژگان: شبکه حسگر بی سیم، الگوریتم جستجوی شکار، خوشه بندی، ردیابی هدف متحرک، پروتکلDCRRP، پروتکل NODIC
  • سید عبدالرسول حسینی، محمد قاسمی، نورمحمد یعقوبی، حبیب الله سالارزهی صفحات 97-111
    زمینه

    پژوهش حاضر به منظور شناسایی پیشایندها و پسایندهای حکمرانی خوب هوشمند از طریق رویکرد دلفی فازی انجام پذیرفت.

    روش

    پژوهش در زمره پژوهش های آمیخته در رهیافت قیاسی- استقرایی است؛ که از حیث هدف، کاربردی و از نظر ماهیت و روش، توصیفی -پیمایشی است. جامعه آماری پژوهش را کلیه فعالان حوزه حکمرانی تشکیل می دهند که 26 نفر از خبرگان آن ها براساس اصل کفایت نظری و با استفاده از روش نمونه گیری هدفمند انتخاب شده اند. در بخش کیفی پژوهش برای گردآوری اطلاعات از مصاحبه نیمه ساختاریافته استفاده شد. علاوه براین در بخش کمی برای گردآوری اطلاعات از پرسشنامه محقق ساخته استفاده شد که روایی و پایایی آن با استفاده از روایی محتوا و آزمون مجدد تایید شد. در بخش کیفی، داده های به دست آمده از مصاحبه با استفاده از نرم افزار Atlas.ti و روش شناسه گذاری تحلیل شد. همچنین در بخش کمی پژوهش، با استفاده از فن دلفی فازی اولویت بندی پیشایندها و پسایندها انجام پذیرفت.

    یافته ها و نتایج

    نتایج پژوهش حاکی از آن است که از میان پیشایندها به ترتیب فناوری و داده های هوشمند، تعامل الکترونیک و هوشمند، حاکمیت قانون، کارگزاران شایسته و متعهد، امنیت سایبری و هوشمند، جامعه و شهروند خوب هوشمند، مدیریت هوشمند و رهبری قوای اجرایی، معماری الکترونیک، دولت هوشمند و الکترونیک و کیفیت قوانین و مقررات، حکمرانی شفاف، زیرساخت دموکراتیک و هوشمند، راهبردها و ثبات سیاسی، و تقویت جامعه مدنی و ارشاد عمومی بالاترین اولویت را داشتند. و در میان پسایندها اثر بخشی و کارایی، کارآفرینی، ارتقاء کیفیت زندگی و توسعه پایدار، اخلاق و اخلاق مداری، برابری و عدالت فراگیر، کوچک سازی، مدیریت بحران موفق، پاسخ آنی به چالش ها، افزایش نزدیکی و عطوفت بین دولت و مردم، کاهش فساد، فهم فناوری، کاهش زمان انجام کار و پروسه های اداری، حذف بورواکراسی به ترتیب دارای بالاترین الویت بودند. نتایج پژوهش می تواند در تلاش جهت استقرار حکمرانی خوب هوشمند یاری رسان باشد.

    کلیدواژگان: پیشایند، پسایند، حکمرانی، حکمرانی خوب، حکمرانی هوشمند، حکمرانی خوب هوشمند
  • سعید بختیاری، ماهان خسروشاهی صفحات 113-127

    در سال‌های اخیر، الگوی رایانش ابری به دلیل مقیاس‌پذیری بالا، قابلیت اطمینان، اشتراک اطلاعات و هزینه پایین نسبت به ماشین‌های مجزا، بسیار مورد توجه قرارگرفته است. در محیط ابر، زمانبندی و تخصیص بهینه وظایف بر استفاده موثر از منابع سیستم اثر می‌گذارد. در حال حاضر روش‌های متداول برای زمانبندی در محیط رایانش ابری با استفاده از روش‌های سنتی مانند حداقل-حداقل و روش‌های فرا ابتکاری مانند الگوریتم کلونی مورچه‌ها انجام می‌شود. روش‌های فوق بر بهینه سازی یک هدف متمرکز هستند و به طور همزمان چندین هدف را برآورد نمی‌کنند. هدف اصلی این تحقیق در نظر گرفتن چندین هدف (زمان اجرای کل، توافق‌نامه سطح سرویس، مهاجرت و انرژی مصرف شده) در مراکز داده ابری با زمانبندی و تخصیص بهینه وظایف می‌باشد. در این پژوهش الگوریتم تکاملی تفاضلی چندهدفه به دلیل ویژگی‌های ساختار ساده و پارامترهای قابل تنظیم کمتر، مورد استفاده قرار می‌گیرد. در روش پیشنهادی، رویکردی جدید مبتنی بر الگوریتم تکاملی تفاضلی برای حل مساله تخصیص در فضای ابری ارایه می‌شود که در رویکرد ارایه شده سعی می‌شود که بر اساس تابع سودمندی چندهدفه تعریف شده و در نظر گرفتن بردارهای جهش و تقاطع بتوانیم در بهبود بهره‌وری از منابع و در نظر گرفتن اهدافی چون زمان، مهاجرت و انرژی تاثیرگذار باشیم. روش پیشنهادی از طریق شبیه‌ساز کلودسیم با آزمایش بر روی حجم کار بیش از هزار ماشین مجازی بر روی داده‌ها‌ی Planet Lab ارزیابی شده است. نتایج حاصل از شبیه‌سازی نشان می‌دهد که روش پیشنهادی توانسته است معیار مصرف انرژی را نسبت به الگوریتم‌های IqrMc، LrMmt و FA مقایسه شده به طور میانگین به میزان 23 درصد، تعداد مهاجرت‌ها را به طور میانگین به میزان 29 درصد، زمان اجرای کل را به طور میانگین به میزان 29 درصد و نقص توافق‌نامه سطح سرویس را به طور میانگین به میزان 1 درصد بهبود دهد. در این صورت استفاده از رویکرد پیشنهادی در مراکز ابری منجر به سرویس‌های بهتر و مناسب به مشتریان این مراکز در حوزه‌های مختلفی از جمله آموزش، مهندسی، صنایع تولیدی، خدماتی و... خواهد شد.

    کلیدواژگان: رایانش ابری، زمانبندی، تخصیص، الگوریتم تکاملی تفاضلی چندهدفه، مهاجرت
  • مهدی سالخورده حقیقی، امین الله کرمانی صفحات 129-153

    محبوبیت شبکه های اجتماعی بخصوص توییتر چالش جدیدی را روبروی محققان قرار داده است و آن چیزی نیست جز هرزنامه . روش های گوناگون زیادی برای مقابله با آنها ارایه شده است. بعضی از این روش ها اگرچه در ابتدا کارآمد بودند اما به مرور توسط تولید کنندگان هرزنامه دور زده شدند. در این تحقیق تلاش داریم با استفاده از یکی از جدیدترین روش های تشخیص هرزنامه و ترکیب آن با تحلیل احساسات دقت تشخیص هرزنامه را افزایش دهیم. ما با استفاده از روش تعبیه سازی، کلمات متن توییت را به عنوان ورودی به یک معماری شبکه عصبی پیچشی داده و خروجی تشخیص دهنده متن هرزنامه یا متن عادی خواهد بود. هم زمان با استخراج ویژگی های مناسب در شبکه توییتر و اعمال روش های یادگیری ماشین بر روی آنها تشخیص هرزنامه بودن توییت را بصورت مجزا محاسبه می کنیم. در نهایت خروجی هر دو روش را به یک شبکه پیچشی تلفیقی وارد می کنیم تا خروجی آن تشخیص نهایی هرزنامه یا نرمال بودن متن توییت را تعیین کند. ما در این تحقیق از دو مجموعه داده متعادل و نامتعادل استفاده می کنیم تا تاثیر مدل پیشنهادی را بر روی دو نوع داده بررسی کنیم. نتایج پژوهش نشان دهنده بهبود کارایی روش پیشنهادی در هر دو مجموعه داده می باشد.

    کلیدواژگان: توییتر، هرزنامه، تعبیه لغات، شبکه های عصبی پیچشی، تحلیل احساسات، CNN
  • احسان سلیمانی نسب صفحات 155-170

    رادیو شناختی فناوری امیدبخشی است که هدف آن دست‌یابی به بهره‌برداری بهتر از طیف فرکانسی است. از طرف دیگر، برداشت انرژی بی‌سیم می‌تواند ملزومات انرژی بسیار زیاد گره‌ها را تامین کند. در این مقاله، دو سناریو در یک شبکه دوراهه فرض شده‌اند که در اولی رله انرژی مورد نیازش را از دو منبع شبکه ثانویه و در دومی هر دوی منابع، انرژی را از رله شبکه ثانویه برداشت می‌کنند. هر دوی محوشدگی ناکاگامی ناشی از انتشار سیگنال و تداخل روی رله ناشی از کاربران اولیه شبکه رادیو شناختی در نظر گرفته‌ می‌شوند. روابط به فرم بسته‌ای برای احتمال خاموشی و گذردهی شبکه رله تقویت و ارسال رادیو شناختی با بکارگیری روش‌های برداشت انرژی و انتقال توان بی‌سیم روی کانال‌های محوشدگی مستقل و ناهمسان ناکاگامی ارایه شده است. روابط تحلیلی با شبیه سازی مونت کارلو صحت سنجی شده‌اند و نشان داده شده است که سناریوی اول همواره نسبت به دومی عملکرد بهتری دارد و هر دو سناریو عملکرد بهتری را نسبت به حالت بدون برداشت انرژی دارند.

    کلیدواژگان: رله تقویت و ارسال، شبکه رادیو شناختی، برداشت انرژی، انتقال توان بی سیم، رله دو جهته
  • الهام ضیایی پور، علی رجب زاده قطری، علیرضا تقی زاده صفحات 172-194

    فناوری SDN یکی از فناوری‌هایی است که در تحول دیجیتال نقش برجسته‌ای ایفاء خواهد نمود. ساختار این فناوری به گونه‌ای است که بتواند خود را با ماهیت پویا و درحال تغییر شبکه‌های آینده و همچنین با نیازها و درخواست‌های کاربران سازگار و همگام سازد. تاثیر این فناوری در هوشمندسازی، چابکی، مدیریت و کنترل تجهیزات، حوزه‌ها و فناوری‌های نوین ارتباطی دیگر، کاهش هزینه‌ها و ایجاد کسب و کارهای نوآورانه بسیارحایز اهمیت است. در این خصوص فراهم‌کنندگان خدمات، از طرفی علاقه زیادی به استقرار SDN، برای مهاجرت زیرساخت‌های خود از یک معماری ایستا به یک سیستم پویا و قابل برنامه‌ریزی دارند و از طرف دیگر آن را جزو اولویت‌های خود نمی‌دانند و این تصور را دارند که از طریق روش‌های سنتی، مدیریت شبکه را انجام دهند. لذا در این پژوهش تلاش شده است ضمن شناخت عوامل موثر بر پذیرش معماری SDN و بکارگیری آن توسط اپراتورهای مخابراتی، مدل پارادایمی موضوع با استفاده از رویکرد سیستمی و نظریه داده بنیاد (مدل اشتراوس و کوربین) استخراج شود. در ارایه مدل بیش از هزار کد اولیه تعیین و در مراحل بازنگری و براساس اشتراکات معانی، مجموعا 210 کد مستقل احصاء گردید. در انتها با نظرخبرگان از این تعداد کد، مجموعا 73 کدنهایی، 12 کد محوری و 6 مقوله اصلی استخراج شده است.

    کلیدواژگان: پذیرش، شبکه، فناوری، نرم افزارمحور
  • احسان شریفی، احمد عبدالله زاده بارفروش صفحات 195-206

    سامانه‏ های نرم ‏افزاری تا زمانی که قابلیت اعمال تغییرات را داشته باشند زنده هستند و امکان استفاده از آن‌ها وجود دارد. اعمال تغییرات در کد منبع بدون توجه به تاثیرات آن می‏ تواند باعث فرسایش معماری سامانه‏ ی نرم ‏افزاری شود. فرسایش معماری به‌مرور، امکان انجام تغییرات را غیرممکن می‏ نماید و سامانه‏ روبه‌زوال می‏ رود. تصمیمات معماری در کد منبع معمولا توسط تاکتیک ‏های معماری محقق می‏ شوند. تاکتیک‏ ها تصمیمات ریزدانه‏ ای هستند که برای تحقق یک ویژگی کیفیتی خاص اتخاذ می‏ شوند. شناسایی تاکتیک‏ ها در کد منبع این امکان را برای توسعه ‏دهندگان فراهم می‏ کند که اعمال تغییرات در کد را با آگاهی از مکان پیاده‏ سازی این تصمیمات انجام دهند. لذا فرآیند فرسایش معماری کندتر شده و سامانه ‏ی نرم ‏افزاری دیرتر به سمت زوال حرکت می ‏نماید. بدین منظور، در این مقاله یک رویکرد بر مبنای وب معنایی به‌منظور شناسایی تاکتیک‏ های معماری در کد منبع معرفی می‏ شود. بر اساس این رویکرد، مفهوم جدیدی به نام ریز تاکتیک معرفی می‎‏ شود که امکان شناسایی تاکتیک ‏های معماری را با استفاده از یک رویکرد معنایی مبتنی بر وب معنایی و آنتولوژی ارتقاء می‏ بخشد. نتایج حاصل از ارزیابی رویکرد پیشنهادی نشان می‏ دهد که امکان شناسایی تاکتیک‏ها در این روش با دقت و کیفیت بهتری نسبت به روش ‏های مشابه انجام می ‏شود.

    کلیدواژگان: تاکتیک معماری، ریزتاکتیک، آنتولوژی، مدل معنایی
  • احسان آریانیان، محمدمهدی اثنی عشری، فاطمه احسانی بشلی، شقایق سادات حسینی بیان، مسعود ده یادگاری، بهنام صمدی صفحات 209-229

    حرکت فعلی جهان در جهت هرچه توانمندتر کردن سامانه‏های رایانش با کارایی بالا، نشان‏دهنده نیاز روزافزون به این فناوری است. بدیهی است که هرچه این نیاز افزایش یابد، این سامانه‏ها نیز لازم است که توانمندتر شوند تا بتوانند فعالیت‏های بیشتر و سنگین‏تری را اجرا نمایند. در یک نگاه کلان‏نگر، نسل‏های آتی رایانش با کارایی بالا در دو دسته کلی قرار می‏گیرند؛ نسل‏های رایانشی مبتنی بر فناوری‏های نوظهور نظیر نورومورفیک و کوآنتوم و نسل‏های رایانشی مرسوم که به سمت Exascale در حال حرکت هستند. با توجه به اینکه در آینده نزدیک، احتمال عملیاتی شدن کامل و استفاده در مقیاس وسیع از فناوری‏های نوظهور پایین است، در این مقاله، تمرکز بر نسل‏های رایانشی مرسوم قرار گرفته و سعی شده است الزامات و نیازمندی‏های آنها از جنبه‏های سخت‏افزاری و نرم‏افزاری مورد بررسی قرار گیرند. همچنین، فناوری‏های هوش مصنوعی و رایانش ابری به عنوان موتورهای محرکه رایانش با کارایی بالا در جهان مورد بررسی قرار گرفته‏اند تا تاثیر متقابل آنها بر رایانش با کارایی بالا مشخص گردد. در نهایت، موضوعات و محورهای تحقیقاتی در سطح جهان که مورد توجه هستند بررسی و تدوین شده است.

    کلیدواژگان: رایانش با کارایی بالا، محاسبات Exascale، آینده پژوهی، معماری‏های سخت‏افزاری، معماری‏های نرم‏افزاری
  • الهام حاجبی، وحید ستاری نائینی صفحات 231-244

    کاهش بار و مصرف انرژی در سیستم های شبکه روی تراشه از اهمیت بسیاری برخوردار است و یکی از مهم‌ترین مباحثی که برای افزایش کارایی شبکه روی تراشه مطرح است، موضوع نگاشت یک برنامه کاربردی در شبکه روی تراشه است. حل مسیله نگاشت برنامه کاربردی برای یافتن بهترین نگاشت، یک موضوع پیچیده و زمانبر است و تاثیر بسیار زیادی بر تاخیر و انرژی مصرفی شبکه دارد. در این مقاله با استفاده از الگوریتم شاهین هریس توانسته ایم روشی را برای نگاشت هسته های پردازشی به روی شبکه روی تراشه ارایه کنیم تا بار روی شبکه و در نتیجه ازدحام در لینک ها را کاهش داده و عملکرد شبکه بهبود ببخشیم. نتایج شبیه‌سازی نشان می دهد که این الگوریتم عملکرد بهتری در مقایسه با الگوریتم-های پایه دارد.

    کلیدواژگان: شبکه روی تراشه، نگاشت هسته پردازشی، تاخیر شبکه، بهره وری از لینک، الگوریتم شاهین هریس گسسته
  • مریم صالح گرگری، محسن گرامی، وحید یزدانیان صفحات 245-254

    امروزه تحولات جدید اقتصاد جهانی از جمله نوسان شدید قیمت مواد اولیه، بالارفتن دستمزد نیروی انسانی، افزایش هزینه حمل و نقل، انبارداری و سایر فاکتورهای تولید، بسیاری از کشورهای در حال توسعه را به فکر واداشته است تا برای موفقیت بیشتر در رقابت‌های تجاری، وارد عرصه تولید و تجارت کالاهای شوند که کمترین میزان وابستگی به مولفه‌های پر ریسک اقتصادی را داشته باشند. صنعت نرم افزار یکی از این صنایع است. این صنعت علاوه بر دارا بودن ارزش افزوده بالا، کمترین نیاز به مواد اولیه و دیگر مولفه های هزینه زا را دارد. در واقع صنعت نرم افزار یک صنعت دانش بر و تمیز است و بر تحقیق و توسعه استوار است. کشور ما نیز می تواند به منظور دست یافتن به منافع حاصل از این صنعت، گام در راه صادرات نرم افزار بگذارد. با توجه به این امر، این تحقیق به آسیب شناسی توسعه صادرات نرم افزار پرداخته است. در این تحقیق که جامعه آماری آن شرکت های نرم افزاری عضو اتحادیه صادرکنندگان نرم افزار می باشند، در مورد تقاضا، دیدگاه و استراتژی ملی، اعتماد و ارتباط بین المللی، ویژگی های صنعت نرم افزار و زیرساخت ها و عوامل درون شرکتی مورد بررسی و. نتایج حاصل از تحقیقات ما نشان میدهد که مشکلات صادرات نرم افزار عدم وجود تقاضا و زیر ساخت نرم افزارها و عوامل درون شرکتی است.

    کلیدواژگان: نرم افزار، آسیب شناسی صادرات، موانع صادرات، استراتژی ملی نرم افزار
  • فرهنگ پدیداران مقدم، حمید مقصودی صفحات 255-270

    یکی از مسایل مهم در شبکه‌های کامپیوتری پویا از قبیل شبکه‌های اینترنت اشیاء که در آن هزینه اتصالات به‌طور پی‌درپی تغییر می‌کند، ایجاد توازن بار ترافیکی و افزایش سرعت‌ انتقال بسته‌ها در شبکه است. بطوری که بسته‌های داده از مسیرهایی با حداقل تراکم به مقصد برسند؛ درنتیجه یکی از روش‌های اصلی برای حل مسایل مسیریابی و توازن بار استفاده از الگوریتم‌های مبتنی بر مورچه است.با استفاده از روشی جدید مبتنی بر بهینه‌سازی کلونی مورچه چندگانه ، هدف این پژوهش ارایه یک الگوریتم مسیریابی مناسب در جهت کوتاه کردن و بهبود بخشیدن مسیر با توجه به پارامترهای تاخیر انتها به انتها ، نرخ اتلاف بسته ،پهنای باند و نرخ مصرف انرژی است تا داده ی حس شده در سیستم‌های اینترنت اشیاء به مقصد برسد. این روش در نرم‌افزار متلب پیاده‌سازی شده است . نتایج حاصل از آزمایش‌ها، بهبود در پارامترهای مذکور را نشان میدهد.

    کلیدواژگان: مسیریابی، توازن بار، اینترنت اشیا و الگوریتم کلونی مورچه چندگانه
|
  • Vahid Kiani Pages 1-15

    Maximizing area coverage is an important issue in the placement of wireless network sensors, the realization of which helps to improve the network monitoring power. In many applications, the sensors are first randomly distributed in the sensing filed and then their placement is modified. The virtual force algorithm (VFA) tries to achieve a more desirable deployment from an initial sensing deployment by considering repulsive and attractive forces between the sensors. In this paper, the combination of Takashi-Sugeno fuzzy system with VFA is used to achieve a better redeployment of the sensors. To adaptively adjust optimal distance value of the sensors, two fuzzy methods are proposed in this paper and their role in improving performance of the virtual force algorithm is analyzed. Comparison of the performance of the proposed methods with the state-of-the-art reveals that intelligent and adaptive adjustment of the optimal distance using a fuzzy system leads to higher final coverage ratio over traditional virtual force algorithm (VFA), improved virtual force algorithm (IVFA), fuzzy redeployment algorithm (FRED), and two metaheuristics GA, and PSO. On the other hand, the proposed VF-based methods require much less time to solve the problem than GA and PSO metaheuristic methods.

    Keywords: Maximal Coverage, Sensor Placement, Virtual Force Algorithm, Fuzzy System
  • Behrooz Eliasi, Mehdi Hosseinpour, Tahereh Mirsaeedghazi Pages 17-34

    Enhancing accessibility to open data ensures to promote the research, innovation, and extension of solutions confronting with complex social challenges in our country. Offered policies by OECD and other scientific associations, is an emphasis on this strategy. Certainly, implementing the strategy needs stablishing governance systems, clarifying processes, and trustiness guarantee to research and business areas. The main part of valuable data resources is personal in nature and gathering, storage, and processing them in cybernet is an enormous source of earning for data-driven businesses. Including the main challenges in trustiness issue, are decision making on privacy policies and ownership. In this paper, considering the complexity in ownership concept for personal data ecosystem, challenges on offered policies like OECD reports will be negotiated to enhance open data. Also, shortages in E-trade and cybercrime rules in our country are briefly debated. Then, aiming to suggest an accessing policy to open data, referring to public sensitiveness to personal data, firstly the detailed conclusions of a field study including realizing criterias of goal and possibly policymaking will be extracted by Delphi method. This work shows the public awareness in this subject, even in an excellence target community, is not desirable. Moreover, trustiness in privacy for personal data, hoping to effective law performance on violations, is not satisfiable. Finally, with a field evaluation by FAHP method, policymaking options will be measured and analysed and strategic requirements for performing elected policy will be suggested.

  • Soheila Shafiezadeh, Zahra Beheshti Pages 37-54

    The Vehicle Routing Problem (VRP) is one of the most important problems in supply chain management because the optimal allocation of vehicles has a significant impact on reducing costs. VRP is in the class of NP-hard problems and exact algorithms cannot find the best solution in an acceptable time. Hence, meta-heuristic algorithms can be employed to solve it. Shuffled Frog Leaping Algorithm (SFLA) is one of the meta-heuristic algorithms, which is efficient, but in some cases, its population diversity rapidly reduces, and the algorithm falls in local optima. In this study, an Individual-Oriented Shuffled Frog Leaping Algorithm (IO-SFLA) is proposed to enhance the exploration and exploitation of SFLA by exchanging the global and local information. Several VRPs in different dimensions are applied to evaluate the performance of IO-SFLA. The efficiency of IO-SFLA is compared with several improved shuffled frog leaping algorithms, Simulated Annealing (SA) and Genetic Algorithm (GA). The results show that IO-SFLA provides significant results compared with the other competitor algorithms. IO-SFLA achieves an average of 1130.442 for the best path cost. The next rank belongs to SA with an average of 1228.725. Other compared algorithms are in the lower ranks with high differences in results.

    Keywords: Vehicle Routing Problem (VRP), Shuffled Frog Leaping Algorithm (SFLA), Route cost, Mutation, Crossover operation
  • hasan aliakbarpor, mohammadtaghi manzouri, amirmasoud rahmani Pages 55-72

    By the extension of the Web and the availability of a large amount of textual information, the development of automatic text summarization models as an important aspect of natural language processing has attracted many researchers. However, with the growth of deep learning methods in the field of text processing, text summarization has also entered a new phase of development and abstractive text summarization has experienced significant progress in recent years. Even though, it can be claimed that all the potential of deep learning has not been used for this aim and the need for progress in this field, as well as considering the human cognition in creating the summarization model, is still felt. In this regard, an encoder-decoder architecture equipped with auxiliary attention is proposed in this paper which not only used the combination of linguistic features and embedding vectors as the input of the learning model but also despite previous studies that commonly employed the attention mechanism in the decoder, it utilized auxiliary attention mechanism in the encoder to imitate human brain and cognition in summary generation. By the employment of the proposed attention mechanism, only the most important parts of the text rather than the whole input text are encoded and then sent to the decoder to generate the summary. The proposed model also used a switch with a threshold in the decoder to overcome the rare words problem. The proposed model was examined on CNN / Daily Mail and DUC-2004 datasets. Based on the empirical results and according to the ROUGE evaluation metric, the proposed model obtained a higher accuracy compared to other existing methods for generating abstractive summaries on both datasets.

    Keywords: Deep learning, Abstractive summarization, Encoder-decoder architecture, Auxiliary attention mechanism, Linguistic features
  • Nozar Ebrahimi Lame, Fatemeh saghafi, Majid Gholipour Pages 73-82

    A Recommendation system is a BI tool that it uses data mining methods for guiding and helping the user to select the best items based on her/his preferences and in the shortest time. Despite more than two decades of academic research on recommendation systems, this issue is still one of the most up-to-date research challenges. Recommendation systems save the users time, increase their satisfaction and their loyalty to sales sites and lead to the development of e-commerce, by personalizing the recommendations of goods or services to site users. Nowadays, recommendation systems have many applications in various sectors of e-commerce, especially in media products such as books, movies, and music. The famous e-commerce sites such as eBay, Amazon, and Netflix and domestic sites such as Digikala, Divar, and Filimo widely use recommendation systems. These systems use a variety of big data filtering methods to provide appropriate recommendations. The most important and widely used filtering method is collaborative filtering (CF). In this paper, we implement three CF recommender systems based on the correlation coefficient between users, selecting the optimal number of neighbors and calculating weighted scores for unwatched movies. The best method with the least error is selected as the desired model. We use Movielens ml-latest-small 100k research dataset with 9742 movies and 610 users as input. The results showed 3.29% less RMSE error compared with the latest research that has used the correlation method.

    Keywords: Recommendation Systems, Content Based filtering, Collaborative filtering, movie
  • Shayesteh Tabatabaei, Hassan Nosrati Nahook Pages 83-95

    In this paper, in order to increase the accuracy of target tracking, it tries to reduce the energy consumption of sensors with a new algorithm for tracking distributed targets called hunting search algorithm. The proposed method is compared with the DCRRP protocol and the NODIC protocol, which uses the OPNET simulator version 11.5 to test the performance of these algorithms. The simulation results show that the proposed algorithm performs better than the other two protocols in terms of energy consumption, healthy delivery rate and throughput rate.

    Keywords: wsn, hunting search algorithm, clustering, target tracking, DCRRP Protocol, Nodic protocol
  • Seyed Abdolrasoul Hosseini, Mohammad Ghasemi, Nour Mohammad Yaghubi, Habibollah Salarzehi Pages 97-111
    Background

    The present study aimed to identify the antecedents and consequences of smart good governance using the fuzzy Delphi method (FDM).

    Method

    The present study is a mixed-method study that was conducted using a deductive-inductive approach. It is also an applied study in terms of its objectives and a descriptive survey study in terms of the design and methodology. The research population included all experts in the field of governance. Accordingly, 26 experts were selected based on the principle of theoretical adequacy and using purposive sampling. In the qualitative part of the study, semi-structured interviews were conducted to collect data. In addition, in the quantitative part, a Researcher made questionnaire was used to collect the data. The validity and reliability of the questionnaire were confirmed via content validity and test-retest method. In the qualitative part, the data collected from the interviews were analyzed using ATLAS.ti software and the indexing method. Besides, in the quantitative part of the study, the antecedents and consequences of smart good governance were ranked using the fuzzy Delphi method (FDM).

    Results

    A comparison of the precedents of smart good governance showed that smart technology and data, electronic and smart interaction, rule of law, competent and committed authorities, cyber and smart security, good smart society and citizens, smart management and executive leadership, e-architecture, smart e-government, the quality of laws and regulations, transparent governance, democratic and smart infrastructure, strategies and political stability, the strengthening of civil society, and public awareness were ranked as the most important factors, respectively. It was also shown that efficiency and effectiveness, entrepreneurship, improving quality of life and sustainable development, ethics and morality, equality and inclusive justice, downsizing, successful crisis management, immediate response to challenges, increasing closeness and compassion between government and people, reducing corruption, technological knowledge, reducing work time and administrative processes, and eliminating bureaucracy were the most important consequences of smart good government, respectively. The insights from this study can contribute to establishing smart good governance.

    Keywords: Precedents, Consequences, Governance, Good Governance, Smart Governance, Smart Good Governance
  • Saeed Bakhtiari, Mahan Khosroshahi Pages 113-127

    In recent years, the cloud computing model has received a lot of attention due to its high scalability, reliability, information sharing and low cost compared to separate machines. In the cloud environment, scheduling and optimal allocation of tasks affects the effective use of system resources. Currently, common methods for scheduling in the cloud computing environment are performed using traditional methods such as Min-Min and meta-heuristic methods such as ant colony optimization algorithm (ACO). The above methods focused on optimizing one goal and do not estimate multiple goals at the same time. The main purpose of this research is to consider several objectives (total execution time, service level agreement and energy consumption) in cloud data centers with scheduling and optimal allocation of tasks. In this research, multi-objective differential evolution algorithm (DEA) is used due to its simple structure features and less adjustable parameters. In the proposed method, a new approach based on DEA to solve the problem of allocation in cloud space is presented which we try to be effective in improving resource efficiency and considering goals such as time, migration and energy by defining a multi-objective function and considering mutation and crossover vectors. The proposed method has been evaluated through a CloudSim simulator by testing the workload of more than a thousand virtual machines on Planet Lab. The results of simulation show that the proposed method in comparison with IqrMc, LrMmt and FA algorithms, in energy consumption by an average of 23%, number of migrations by an average of 29%, total execution time by an average of 29% and service level agreement violation (SLAV) by an average of 1% has been improved. In this case, use of the proposed approach in cloud centers will lead to better and appropriate services to customers of these centers in various fields such as education, engineering, manufacturing, services, etc.

    Keywords: Cloud computing, Scheduling, Allocation, Multi-objective differential evolution algorithm (DEA), Migration
  • mehdi salkhordeh haghighi, Aminolah Kermani Pages 129-153

    The welcoming of social networks, especially Twitter, has posed a new challenge to researchers, and it is nothing but spam. Numerous different approaches to deal with spam are presented. In this study, we attempt to enhance the accuracy of spam detection by applying one of the latest spam detection techniques and its combination with sentiment analysis. Using the word embedding technique, we give the tweet text as input to a convolutional neural network (CNN) architecture, and the output will detect spam text or normal text. Simultaneously, by extracting the suitable features in the Twitter network and applying machine learning methods to them, we separately calculate the Tweeter spam detection. Eventually, we enter the output of both approaches into a Meta Classifier so that its output specifies the final spam detection or the normality of the tweet text. In this study, we employ both balanced and unbalanced datasets to examine the impact of the proposed model on two types of data. The results indicate an increase in the accuracy of the proposed method in both datasets.

    Keywords: Spam Detection, Twitter, Word Embedding, Convolutional neural network, Deep learning, sentiment analysis, Ensemble Learning
  • Ehsan Soleimani Nasab Pages 155-170

    Cognitive radio is a promising technology which aims to achieve better frequency spectrum utilization. On the other hand, wireless energy harvesting can provide extra energy requirement at the nodes. Two scenarios in a two-way network are assumed where in the first scenario, relay harvests its required energy from end-sources of secondary network in presence of cognitive radio network and in the second scenario, both end-sources harvest energy from relay in secondary network. Both the Nakagami-m fading caused by signal propagation and the interference at relay caused by primary users in a cognitive radio network are considered. Closed-form expressions for outage probability and throughput of bidirectional cognitive radio amplify-and-forward relaying network using energy harvesting and wireless power transfer techniques over independent and non-identically distributed (i.n.i.d.) Nakagami-m fading channels are proposed. The analytical derivations are validated employing Monte Carlo simulations, where it is demonstrated that the first scenario always outperforms the second one, while both scenarios perform better than no energy harvesting case.

    Keywords: Amplify-and-forward relay, cognitive radio network, energy harvesting, wireless power transfer, bidirectional relaying
  • Elham Ziaeipour, ali rajabzadeh ghotri, Alireza Taghizadeh Pages 172-194

    Software Defined Networking (SDN) is one of the technologies with most promising role in digital transformation. Dynamic structure of SDN can adapt to ever changing nature of future networks and their users. The important impact of this technology on intelligence, agility, management and control of current network devices as well as upcoming communication technologies reduces expenses and creates innovative businesses. Although, service providers are very interested in deploying SDN to transform their static infrastructures to a dynamic and programmable platform, they do not consider it as one of their priorities and still depend on traditional methods to manage their network. Therefore, this study highlights the factors affecting the acceptance of SDN architecture and its application by the national telecom operators, and proposes a comprehensive and new paradigm model using a systems approach and Grounded theory (Strauss and Corbin model). This innovative model is provided by systematically reviewing the theoretical foundations and conducting in-depth interviews with managers and experts in telecom industry. During the modeling process, more than a thousand initial codes were determined. Finally, based on the opinion of experts on these codes, a total of 73 open codes, 12 axial codes and 6 main categories have been extracted.

    Keywords: Adoption, Network, Software Defined, Technology
  • Ehsan Sharifi Pages 195-206

    Software systems are alive as long as they can be changed and used. Changing the source code without considering the consequences can lead to the architectural erosion of software systems. Architectural erosion gradually makes the system unchangeable and moves it towards deterioration. Architectural decisions in the source code are usually made using architectural tactics. These tactics are fine-grained decisions that are made to achieve a certain quality attribute. Recognizing these tactics in the source code, allows developers to change the code while knowing the implementation location of these decisions. This slows the architectural erosion process and delays the system's movement towards deterioration. Thus, this paper introduces a method based on semantic web for recognizing the architectural tactics presented in the source code. Based on this approach, the new concept of microtactic is introduced that increases the possibility of recognizing architectural tactics using a semantic web and ontological approach. The evaluation results show that this method in comparison with other similar methods recognizes the tactics with higher precision and quality.

    Keywords: Architectural tactic, Microtactic, ontology, semantic model
  • ehsan arianyan, MohammadMahdi Esnaashari, Fatemeh Ehsani Boshla, Shaghayeghsadat Hossieni bayan, Masoud Dehyadegari, Behnam Samadi Pages 209-229

    Nowadays, increasing the processing power of supercomputers is a worldwide race. This race, signifies the importance of supercomputers in the current era. They are engines of improving technology in almost all scientific areas, such as computational biology, earth sciences, cosmology, fluid dynamics, and plasma modeling, to name a few. Next generation of supercomputers can be divided into two broad categories: 1) emerging technologies such as neuromorphic and quantum computing and 2) Exascala computing. Emerging technologies will be the future of supercomputing, however, not in a very recent future. Therefore, in this paper, we have focused on Exascale computing, and have tried to provide a comprehensive overview of the main requirements for this technology to be achieved and become available. Requirements have been overviewed from different aspects; hardware, software, artificial intelligence, and cloud computing. In addition, we have attempted to provide a complete taxonomy of hot research topics within this area.

    Keywords: High performance computing, Exascale computing, Hardware architectures, Software architectures
  • Elham Hajebi, Vahid Sattari-Naeini Pages 231-244

    Reducing load and power consumption in on-chip network systems is very important and one of the most important issues to increase the efficiency of on-chip network is the issue of mapping an application on the chip network. Solving the application mapping problem to find the best mapping is a complex and time consuming issue and has a huge impact on network latency and power consumption. In this paper, using the Harris hawk algorithm, we have been able to provide a method for mapping processing cores to the network on chip to reduce the load on the network and thus congestion in the links and improve network performance. The simulation results show that this algorithm performs better than the basic algorithms.

    Keywords: Network-on-chip, Core-mapping, Latency, Utilization of link, HHO
  • Maryam Saleh Gorgory, Mohsen Gerami, Vahid Yazdanian Pages 245-254

    Today, the new developments of the world economy, including the severe fluctuation of the price of raw materials, the increase in the wages of the human force, the increase in the cost of transportation, storage and other production factors, have made many developing countries to think about entering The field of production and trade of goods that have the least amount of dependence on high-risk economic components. The software industry is one of these industries. In addition to having high added value, this industry has the least need for raw materials and other cost-generating components. In fact, the software industry is a pure knowledge industry and is based on research and development. Our country can also take steps to export software in order to gain benefits from this industry. Considering this, this research has addressed the pathology of software export development. In this research, the statistical population of which are software companies that are members of the software exporters' union, about the demand, national perspective and strategy, international trust and communication, features of the software industry and infrastructure and internal factors are investigated. The results of our research show that the problems of software export are the lack of demand and software infrastructure and internal factors.

    Keywords: software, export pathology, export barriers, national software strategy
  • Farhang Padidaran Moghaddam, Hamid Maghsoudi Pages 255-270

    An important issue in dynamic computer networks such as Internet networks, where the cost of connections varies continuously, is to create a traffic load balancing and increase the transmission speed of packets in the network, so that data packets are using paths with minimal congestion, as a result, one of the main approaches to solve routing problems and load balancing algorithms is based on ant - based algorithms using a novel approach based on optimization of multiple ant colony optimization, the purpose of this research is to present an appropriate routing algorithm in order to shorten and improve the path due to end - to - end delay parameters, packet loss rate, bandwidth and energy consumption rate, to reach a sense of data on the Internet systems. this method has been implemented in MATLAB software and shows the results of the improvement experiments in the mentioned parameters.

    Keywords: Routing, load balancing, Internet of things, ant colony algorithm