فهرست مطالب

نشریه فناوری اطلاعات و ارتباطات ایران
سال پانزدهم شماره 57 (پاییز و زمستان 1402)

  • تاریخ انتشار: 1402/08/18
  • تعداد عناوین: 18
|
  • فریناز صناعی، سید عبدالله امین موسوی، عباس طلوعی اشلقی، علی رجب زاده قطری صفحات 1-19
    مقدمه

    ملانوم جزء شایعترین سرطان تشخیصی و دومین علت مرگ ناشی از سرطان در میان افراد است. تعداد مبتلایان به آن در حال افزایش است. ملانوم، نادرترین و بدخیم ترین نوع سرطان پوست است.در شرایط پیشرفته توانایی انتشار به ارگانهای داخلی را دارد و میتواند منجر به مرگ شود. طبق برآوردهای انجمن سرطان آمریکا برای ملانوم در ایالاتمتحده برای سال 2022 عبارتاند از: حدود 99،780 ز افراد مبتلابه ملانوم تشخیص داده شدند و حدود 7،650 نفر در اثر ملانوم جان خود را از دست میدهند. لذا هدف از این مطالعه، طراحی بهبود دقت الگوریتم برای پیش بینی بقای این بیماران است.

    روش پژوهش

     روش حاضر کاربردی، توصیفی- تحلیلی و گذشتهنگر است. جامعه پژوهش را بیماران مبتلابه سرطان ملانوم پایگاه داده مرکز تحقیقات کشوری سرطان دانشگاه شهید بهشتی) 1387 تا 1391 (که تا 5 سال مورد پیگیری قرارگرفته بودند، تشکیل داده است. مدل پیشبینی بقای ملانوم بر اساس شاخص های ارزیابی الگوریتم های داده کاوی انتخاب شد.

    یافته ها

    الگوریتم های شبکه عصبی، بیز ساده، شبکه بیزی، ترکیب درخت تصمیم گیری با بیز ساده، رگرسیون لجستیک، J48 ، ID3 بهعنوان مدل های استفاده شده ی پایگاه داده کشور انتخاب شدند . عملکرد شبکه عصبی در همه شاخصهای ارزیابی ازلحاظ آماری نسبت به سایر الگوریتم های منتخب بالاتر بود.

    نتیجه گیری

    نتایج مطالعه حاضر نشان داد که شبکه عصبی با مقدار 97 / 0 ازلحاظ دقت پیش بینی عملکرد بهینه دارد. بنابراین مدل پیش بینی کننده بقای ملانوم، هم ازلحاظ قدرت تمایز و هم ازلحاظ پایایی، عملکرد بهتری از خود نشان داد؛ بنابراین، این الگوریتم به عنوان مدل پیش بینی بقای ملانوم پیشنهاد شد

    کلیدواژگان: داده کاوی، پیش بینی، ملانوم، بقای بیماری، شبکه عصبی، درخت تصمیم گیری
  • فاطمه اصغریان، محسن راجی صفحات 20-30

    در سال‏های اخیر، با پیشرفت الکترونیک خودرو و توسعه وسایل نقلیه مدرن با کمک سیستم‏ های نهفته و تجهیزات قابل حمل، شبکه ‏های درون-خودرویی مانند شبکه ناحیه کنترل کننده (CAN) با مخاطرات امنیتی جدیدی مواجه شده‏اند. از آنجا که گذرگاه CAN فاقد سیستم های امنیتی مانند تایید اعتبار و رمزگذاری برای مقابله با حملات سایبری می‏باشد، نیاز به یک سیستم تشخیص نفوذ برای شناسایی حملات به گذرگاه CAN بسیار ضرروی به نظر می‏رسد. در این مقاله، یک شبکه عصبی پیچیده متخاصم عمیق (DACNN) برای تشخیص انواع نفوذهای امنیتی در گذرگاه ‏های CAN پیشنهاد شده است. به این منظور، روش DACNN که گسترش یافته روش CNN با استفاده از یادگیری خصمانه است، در سه مرحله به تشخیص نفوذ می پردازد؛ در مرحله نخست، CNN به عنوان توصیفگر ویژگی ها عمل نموده و ویژگی‏های اصلی استخراج می‏شود و سپس، طبقه بندی کننده متمایزگر این ویژگی‏ها را طبقه‏بندی می کند و در نهایت، به کمک یادگیری خصمانه نفوذ تشخیص داده می‏شود. جهت بررسی کارآمدی روش پیشنهادی، یک مجموعه داده منبع باز واقعی مورد استفاده قرار گرفت که ترافیک شبکه CAN را بر روی یک وسیله نقلیه واقعی در حین انجام حملات تزریق پیام ضبط نموده است. نتایج به دست آمده نشان می‏دهد که روش پیشنهادی نسبت به سایر روش‏های یادگیری ماشین در نرخ منفی کاذب و میزان خطا عملکرد بهتری دارد که این میزان برای DoS و حمله جعل دنده محرک و حمله جعل RPM کمتر از 0.1 % می باشد و این میزان برای حمله فازی کمتر از 0.5% می باشد.

    کلیدواژگان: سیستم تشخیص نفوذ، یادگیری ماشین، شبکه داخل خودرویی، شبکه ناحیه کنترل کننده (CAN)، شبکه عصبی پیچشی (CNN)، یادگیری خصمانه
  • مهدی عزیزی مهماندوست، محمدرضا حسینی، رضا تقی پور، مجتبی مازوچی صفحات 31-74

    هدف از انجام این پژوهش ارایه الگوی برنامه کلان ملی شفافیت و آزادسازی اطلاعات می باشد. پژوهش دارای رویکردی تلفیقی (کیفی و کمی) بوده و از روش نظریه داده بنیاد (گراندد تیوری) به عنوان روش تحقیق استفاده شده است. در بخش کیفی با بررسی عمیق و اکتشافی قوانین و اسناد بالادستی، الگوها، نظریه ها، برنامه ها و اسناد کشورهای مختلف مرتبط با شفافیت و آزادسازی اطلاعات، تحلیل داده ها تا حد اشباع نظری، طی سه مرحله کدگذاری باز، محوری و انتخابی انجام گرفت. به منظور دستیابی به ابعاد، مولفه ها و زیرمولفه های این الگو، 620 کد اولیه استخراج گردید که با حذف موارد مشترک و تکراری به 593 کد ثانویه تقلیل یافت و در ادامه 129 مفهوم استخراج شد. در نهایت، 24 مقوله فرعی، ذیل 5 مولفه اصلی بر اساس الگوی پارادایم قرار گرفتند. در بخش کمی، نتایج حاصل از تحلیل پرسش نامه نشان داد که از منظر روایی، ارزش کلی پرسش نامه در ابعاد مختلف بین اعداد 0.87 الی 0.92 و میزان ضریب اعتماد بین اعداد 0.73 الی 0.78 گزارش شد. بر اساس تجزیه وتحلیل داده ها، ایجاد نهاد فرا قوه ای راهبری شفافیت و آزادسازی اطلاعات، تعیین دقیق موارد استثنا، حکمرانی شبکه ای، مطالبه گری شفافیت، پایبندی به چارچوب ها، افشای حداکثری و حمایت از افشاگری مشروع و تاسیس مراکز حکمرانی داده از جمله مقوله های مورد تاکید در این الگو بود.

    کلیدواژگان: الگوی برنامه کلان، شفافیت اطلاعات، آزادسازی اطلاعات، روش داده بنیاد، مدل پارادایم
  • اعظم سادات مرتضوی کهنگی، پرویز ساکتی، جواد محرابی صفحات 48-62

    هدف از این پژوهش شناسایی پیش برنده ها، بازدارنده ها و پیامدهای کارآفرینی دیجیتال در صنعت حمل و نقل بار جاده ای ایران است. جامعه آماری این پژوهش در بخش کیفی را 20 نفر از خبرگان این حوزه تشکیل دادند با استفاده از اشباع نظری انتخاب شدند. در بخش کمی نیز با استفاده از فرمول کوکران و روش نمونه گیری خوشه ای، 170 نفر از کارکنان این صنعت به عنوان نمونه انتخاب شدند. جهت جمع آوری داده ها در بخش کیفی از مصاحبه نیمه ساختاریافته و در بخش کمی از پرسشنامه محقق ساخته استفاده شد که روایی و پایایی آن مورد بررسی و تایید قرار گرفت. در تجزیه و تحلیل اطلاعات در بخش کیفی از مرور سیستماتیک ادبیات و کدگذاری و نرم افزار maxqda استفاده شد و در بخش کمی از آمار استنباطی و نرم افزارهای SPSS و Lisrel استفاده شد. درنهایت 9 شاخص در 4 عامل پیش برنده، 11 شاخص در 3 عامل بازدارنده و 55 شاخص در 8 دسته پیامد استخراج شده و با استفاده از تحلیل عاملی، اولویت بندی شدند. نتیجه این پژوهش نشان می دهد که مولفه سیاسی به عنوان پیش برنده با اولویت و موانع سیاسی به عنوان بازدارنده بااولویت است. لذا نقش دولت در این زمینه بسیار حایز اهمیت است.

    کلیدواژگان: کارآفرینی دیجیتال، صنعت حمل و نقل بار جاده ای، پیش برنده، بازدارنده، پیامد
  • آرش قربان نیا دلاور، رضا اکرمی نژاد، سحر مظفری صفحات 62-76

    استفاده از رایانش ابری در مراکز داده مختلف در سراسر دنیا، منجر به تولید بیشتر گاز دی اکسیدکربن می شود، که در آن مسیله انرژی و توان یکی از مسایل مهم می‏باشد. الگوریتم آگاه به انرژی و توان عملیاتی برای زمان بندی جریان‏های کاری نمونه - فشرده اینترنت اشیا با پردازش دسته ای در ابرها مورد مطالعه قرارگرفته و روشی جهت زمان بندی جریان‏های کاری ابری برای بهینه سازی انرژی، توان عملیاتی و تاخیر ارایه شده است. در روش پیشنهادی نسبت به روش قبلی با ایجاد پارامترهای فاصله، دسته بندی ورودی ها و همچنین زمان اجرای واقعی، توان عملیاتی، انرژی و تاخیر را بهبود داده ایم. روش WSTMOS با درنظرگرفتن پارامترهای شاخص و زمان واقعی، به تابع صلاحیت بهینه ای دست یافته است. همچنین روش پیشنهادی پارامتر فاصله زمانی وظیفه، نسبت به ماشین‏های مجازی برای کاهش تعداد مهاجرت های ماشین‏های مجازی، استفاده شده است. روش WSTMOS با دسته بندی ورودی های جریان کاری به گروه‏ های کم، متوسط و پرحجم و همچنین توزیع بار مناسب بر روی سرورهای مناسب تر جهت آستانه پردازنده‏ها، میزان انرژی و هزینه را بهینه نموده و همچنین میزان مصرف انرژی به طور میانگین 4.8 درصد و هزینه 4.4 درصد، نسبت به روش مورد مطالعه کاهش یافته و درنهایت میانگین تاخیر، توان و بار کاری نسبت به روش های قبلی بهینه شده است.

    کلیدواژگان: زمان بندی، محاسبات ابری، متعادل سازی بار، انرژی، هزینه، پردازش دسته ای، توان عملیاتی
  • رضا مولایی فرد، محمد مصلح صفحات 77-92

    سیستم های توصیه گر می توانند درخواست های آینده کاربر را پیش بینی و سپس لیستی از صفحات موردعلاقه کاربر را تولید کند. به عبارت دیگر سیستم های توصیه گر می توانند نمایه ایی دقیق از رفتار کاربران را به دست آورده و صفحه ایی پیش بینی شود که کاربر درحرکت بعدی آن را انتخاب خواهد کرد که این کار می تواند مشکل شروع سرد سیستم را حل و باعث کیفیت بخشیدن به جستجو شود. در این تحقیق به ارایه روش جدیدی به منظور بهبود سیستم های توصیه گر در زمینه وب پرداخته می شود که از الگوریتم خوشه بندی DBSCAN جهت خوشه بندی داده ها استفاده می شود که این الگوریتم امتیاز کارایی 99٪ را به دست آورد. سپس با استفاده از الگوریتم Page rank، صفحات موردعلاقه کاربر وزن دهی می شوند. سپس با استفاده از روش SVM، داده ها را دسته بندی و جهت تولید پیش بینی به کاربر به یک سیستم توصیه گر ترکیبی داده می دهیم که درنهایت این سیستم توصیه گر لیستی از صفحات را در اختیار کاربر قرار خواهد داد که می تواند موردعلاقه وی باشند. ارزیابی نتایج حاصل از تحقیق حاکی از آن بود که استفاده از این روش پیشنهادی می تواند امتیاز 95% را در قسمت فراخوانی و امتیاز 99% را در قسمت دقت به دست آورد که این نتایج اثبات می کند که این سیستم توصیه گر تا بیش از 90٪ می تواند صفحات موردنظر کاربر را به درستی تشخیص داده و تا حدود زیادی نقاط ضعف سایر سیستم های پیشین را برطرف سازد.

    کلیدواژگان: سیستم توصیه گر، داده کاوی، الگوریتم DBSCAN، الگوریتم SVM، یادگیری ماشین
  • احمد دولت خواه، بهنام درستکار یاقوتی، راهب هاشم پور صفحات 94-110

    با گسترش فناوری بسیاری از خدمات نهادها و سازمان ها به صورت الکترونیکی و هوشمند، در بستر اینترنت ارایه می گردد. پلیس نیز به عنوان یک نهاد ارایه دهنده خدمات به مردم و سایر نهاد ها، به دنبال هوشمندسازی خدمات خود می باشد. در همین راستا نیز سامانه های الکترونیکی و هوشمند مختلفی را ارایه کرده است. به دلیل عدم احراز هویت کاربران در این سامانه ها، بسیاری از خدماتی که می توانند به صورت غیرحضوری ارایه گردد، نیاز به مراجعه به دفاتر پلیس+10 را دارند. محدودیت بودجه و تجهیزات برای پاسخگویی حضوری، محدودیت نیروهای پلیس و تمرکز آن ها بر روی موضوعات مهم، محدودیت تعداد دفاتر خدماتی در شهرستان ها و عدم دسترسی روستاها به این دفاتر، رشد روزافزون خدمات برخط و افزایش تقاضای مردم برای آن، به ویژه در شرایطی مانند بحران بیماری کرونا، سبب شده است تا نیاز به احراز هویت غیرحضوری بسیار مورد توجه قرار بگیرد. در این پژوهش، احراز هویت غیرحضوری و ضرورت استفاده از آن، روش های تشخیص زنده بودن و بازشناسی چهره که دو فناوری مهم در این حوزه است، مرور شده است. در ادامه یک روش کارآمد از مدل های یادگیری عمیق بازشناسی چهره برای تطبیق چهره و یک روش تشخیص زنده بودن تعاملی به وسیله ی بازشناسی گفتار فارسی ارایه شده است و در نهایت نتایج آزمایش این مدل ها بر روی داده های مربوط در این حوزه آورده شده است.

    کلیدواژگان: احراز هویت غیرحضوری، بازشناسی چهره، تشخیص زنده بودن، بازشناسی گفتار
  • نیلوفر مراد حاصل، بیتا محبی خواه صفحات 111-121
    زمینه و هدف

    در اغلب مطالعات انجام شده آثار مستقیم بخش ارتباطات و فناوری اطلاعات (ICT) بررسی شده است و به آثار غیر مستقیم (سرریز) و نحوه سنجش آن پرداخته نشده است. این موضوع در دستور کار مقاله حاضر قرار دارد. بدین منظور ضمن تعیین قلمرو اقتصاد دیجیتال، به برآورد ارزش سرریز هسته اقتصاد دیجیتال کشور پرداخته شده است.

    روش شناسی: 

    در این مقاله با بهره گیری از مدل رشد سولو، اثرات سرریز هسته اقتصاد دیجیتال (ICT) برای دوره زمانی 1399-1383 برآورد شده است.

    یافته ها

    نتایج نشان می دهد که در دوره مورد بررسی، با توجه به کشش بهره وری نیروی کار نسبت به سهم سرمایه بخش ICT به تولید ناخالص داخلی (در حدود 0.3)، اثرات سرریز هسته اقتصاد دیجیتال از 210 هزار میلیارد ریال در سال 1395 به رقم 279 هزار میلیارد ریال در سال 1399 افزایش یافته است.

    کلیدواژگان: اقتصاد دیجیتال، ارتباطات وفناوری اطلاعات، اثرات سرریز، بازده خصوصی، بازده اجتماعی
  • فائزه فروتن، محمد ربیعی صفحات 122-137

    صنعت بازار خرده فروشی از جمله صنایع اثرگذار بر اقتصاد کشورها است که حیات آن وابسته به میزان رضایت و اعتماد مشتریان برای خرید از این بازارها می باشد. در چنین شرایطی صنعت بازار خرده فروشی در تلاش است تا بر اساس صفحات وب و پلتفرم های آنلاین شرایطی را برای ثبت نظرات و تعامل مشتریان با خرده فروشان فراهم آورد. زیرا تحلیل نظرات منتشر شده نه تنها در تعیین میزان رضایت مشتریان بلکه در بهبود و ارتقا محصولات نقش دارند. از این رو در سال های اخیر تکنیک های تحلیل احساسات به منظور تحلیل و خلاصه سازی نظرات، مورد توجه پژوهشگران در حوزه های مختلف به ویژه صنعت بازار خرده فروشی قرار گرفته است. ازاینرو در این پژوهش با هدف بهبود در نتایج استخراج ویژگی ها از متن نظرات فارسی و افزایش دقت تحلیل احساسات فارسی، یک چارچوب جدید برای تحلیل احساسات در سطح جمله، بر اساس BERT، مدل استخراج ویژگی CNN-BiLSTM و مدل طبقه بندی XGBoost پیشنهاد شده است. در نهایت نتایج پژوهش دقت 93.74% را برای طبقه بندی احساسات متن نظرات فارسی؛ بر اساس چارچوب پیشنهادی نشان می دهد که بر اساس آن می توان اذعان داشت، CNN-BiLSTM از جمله روش های قدرتمند در استخراج ویژگی ها از متن فارسی است که ضمن استخراج دقیق ویژگی ها، باعث افزایش دقت تحلیل احساسات فارسی نیز می گردد.

    کلیدواژگان: تحلیل احساسات، زبان فارسی، CNN-BiLSTM، BERT، بازارخرده فروشی
  • حامد اجاقی، ایمان ظهوریان نادعلی، فاطمه سلیمانی روزبهانی صفحات 138-152

    هوش مصنوعی به عنوان یک حوزه فناورانه نوظهور مورد توجه روزافزون شرکت ها و حکمرانان قرار گرفته است. توسعه هوش مصنوعی هم در سطح کسب وکار و هم در سطح سیاست های کلان کشور در گرو شناخت وضعیت موجود قرار دارد. پژوهش حاضر به دنبال شناسایی مصنوعات ارایه شده در این حوزه و افراز آن ها به سطوح تحول آفرینی از قبیل فردی، سازمانی، صنعتی و... است. این تحقیق از طریق قابلیت هایی که هوش مصنوعی می تواند ایجاد کند به شناسایی محصول/سرویس های عرضه شده در کشور و تولیدکنندگان آنها می پردازد. سپس برمبنای روش شناسی طبقه بندی و اتکا به مشخصه کلیدی دسته ها، گستره های تحول آفرینی مصنوعات زیست بوم هوش مصنوعی ایران را استخراج می نماید.562 محصول/سرویس دارای قابلیت هوش مصنوعی شناسایی گردید که توسط 112 شرکت عرضه شده اند. بینایی ماشین و پردازش زبان طبیعی به ترتیب با اختصاص 44 و 27 درصد از تولیدات به خود در صدر فناوری های مورد استفاده بوده اند. مصنوعات و تولیدکنندگان در هفت گستره تحول آفرینی شامل فردی، سازمانی، صنعت، تراشه الکترونیکی/سخت افزار، جامعه، پلتفرم، کد/الگوریتم/کتابخانه و زیرساخت دسته بندی شده اند. تولیدات هوش مصنوعی ایران به صورت متوازن رشد ننموده است. سه سطح پلتفرم، کد/الگوریتم/کتابخانه و زیرساخت به عنوان هسته اصلی مولد سایر محصول/سرویس های هوش مصنوعی کمترین میزان تولیدات را داشته اند. پیشنهاد شده یک بازارگاه تخصصی برای عرضه مشترک رابط های برنامه نویسی هوش مصنوعی به منظور تحریک شکل گیری زیست بوم در دستورکار قرار گیرد.

    کلیدواژگان: هوش مصنوعی، نوآوری مخرب، تحول آفرینی، زیست بوم، مصنوعات، تولیدکنندگان
  • هدی الشهیب، بهروز مینایی، محمدابراهیم شناسا صفحات 153-164

    زبان عربی ریخت شناسی بسیار غنی و پیچیده ای دارد که برای تحلیل زبان عربی و به ویژه در متون عربی سنتی مانند متون تاریخی و مذهبی بسیار مفید است و در فهم معنای متون کمک می کند. در مجموعه داده های ریخت شناسی تنوع برچسب و تعداد نمونه های دادگان به ارزیابی روش های ریخت شناسی کمک بیشتری می کند، در این پژوهش مجموعه داده ریخت شناسی که ارایه می کنیم شامل حدود 223690 کلمه از کتاب شرایع الاسلام است که توسط متخصصین برچسب گذاری شده است که این مجموعه دادگان از نظر حجم و تنوع برچسب ها نسبت به سایر دادگان هایی که برای تحلیل ریخت شناسی عربی ارایه داده شده است برتر می باشد. برای ارزیابی دادگان، سامانه فراسه را بر روی متون اعمال کردیم و کیفیت حاشیه نویسی را از طریق چهار معیار بر روی سامانه فراسه گزارش می کنیم.

    کلیدواژگان: ریخت شناسی، زبان عربی، حاشیه نویسی، دادگان، برچسب گذاری صرفی
  • محمدرضا زراعت کار مقدم، مجید غیوری ثالث صفحات 165-190

    با توجه به گسترش روز افزون استفاده از سامانه های اینترنت اشیاء صنعتی یکی از پرکابردترین مکانیزم های امنیتی، سیستم های تشخیص نفوذ در اینترنت اشیاء صنعتی می باشد. در این سیستم ها از تکنیک های یادگیری عمیق به طور فزآینده ای برای شناسایی حملات، ناهنجاری ها یا نفوذ استفاده می شود. در یادگیری عمیق مهم ترین چالش برای آموزش شبکه های عصبی، تعیین فراپارامترهای اولیه در این شبکه ها است. ما برای غلبه بر این چالش، به ارایه ی رویکردی ترکیبی برای خودکارسازی تنظیم فراپارامتر در معماری یادگیری عمیق با حذف عامل انسانی پرداخته ایم. در این مقاله یک سیستم تشخیص نفوذ در اینترنت اشیاء صنعتی مبتنی بر شبکه های عصبی کانولوشن (CNN) و شبکه عصبی بازگشتی مبتنی بر حافظه کوتاه مدت (LSTM) با استفاده از الگوریتم های فراابتکاری بهینه سازی ازدحام ذرات (PSO) و وال (WOA) ارایه شده است. این سیستم یک روش ترکیبی براساس شبکه های عصبی و الگوریتم های فراابتکاری برای بهبود عملکرد شبکه عصبی در راستای افزایش نرخ تشخیص و کاهش زمان آموزش شبکه های عصبی می باشد. در روش ما با درنظر گرفتن الگوریتم PSO-WOA، فراپارامترهای شبکه عصبی بدون دخالت عامل انسانی و به صورت خودکار تعیین شده است. در این مقاله از مجموعه داده ی UNSW-NB15 برای آموزش و آزمایش استفاده شده است. در این پژوهش، الگوریتم PSO-WOA با محدود کردن فضای جستجو، فراپارامترهای شبکه عصبی را بهینه کرده و شبکه عصبی CNN-LSTM با فراپارامترهای تعیین شده آموزش دیده است. نتایج پیاده سازی حکایت از آن دارد که علاوه بر خودکارسازی تعیین فراپارامترهای شبکه ی عصبی، نرخ تشخیص روش ما 98.5 درصد بوده که در مقایسه با روش های دیگر بهبود مناسبی داشته است.

    کلیدواژگان: سیستم تشخیص نفوذ، اینترنت اشیاء صنعتی، الگوریتم های فراابتکاری، شبکه عصبی
  • کیومرث سلیمی، مهدی ملامطلبی صفحات 191-210

    امروزه رایانش ابری به علت ارایه خدمات متنوع، کاربردهای زیادی دارد. از سوی دیگر، به علت رشد سریع، محدودیت منابع و هزینه نهایی، چالش های متعددی در رایانش ابری به وجود آمده است که یکی از این چالش ها، توازن بار است. منظور از توازن بار، چگونگی مدیریت توزیع بار در بین گره های پردازشی، به منظور استفاده بهینه از منابع و صرف کمترین زمان جهت پاسخ به درخواست کاربر است. روش های متعددی در خصوص برقراری توازن بار پیشنهاد شده اند که یکی از آن ها، الگوریتم جهش قورباغه است که پویا، تکاملی و الهام گرفته از طبیعت می باشد. در این مقاله، بهبودی بر الگوریتم جهش قورباغه پیشنهاد شده است که باعث همگرایی سریع و بستن راه حلقه تکرار تکامل معیوب قورباغه ها، می گردد. جهت ارزیابی، الگوریتم جهش قورباغه بهبود یافته پیشنهادی R-SFLA و الگوریتم SFLA و الگوریتم ASFLA در شبیه ساز کلودسیم تحت شرایط یکسان، مورد آزمایش قرار گرفتند. نتایج به دست آمده از آزمایشات، بیانگر آن است که روش پیشنهادی نسبت به روش های دیگر، از نظر هزینه کلی اجرا، زمان پاسخ و درجه توازن بار، کاراتر عمل نموده است.

    کلیدواژگان: رایانش ابری، توازن بار، الگوریتم جهش قورباغه، زمانبندی منابع، زمان پاسخ
  • علی پولادساده، محمدعلی سبقتی صفحات 211-223

    تغییرات کانال های مخابراتی یکی از چالش های ارتباطات بی سیم است که مساله جبرانسازی اثر کانال به کمک تخمین مناسبی از پاسخ آن را مورد توجه قرار داده است. در سیستم پرکاربرد OFDM، می توان زیرحامل هایی را به عنوان پایلوت برای تخمین کانال لحاظ کرد. در روند تخمین کانال به کمک پایلوت، درونیابی برای دستیابی به پاسخ کانال در زیرحامل های داده ضروری است. با توجه به تنوع روش های درونیابی، یافتن بهترین روش موضوع تحقیقات مختلفی بوده است، زیرا یک روش درونیابی به عنوان بهترین درونیاب در تمام شرایط وجود ندارد و عملکرد درونیابی به محوشوندگی کانال، سیگنال به نویز و سربار پایلوت وابسته است. در این مقاله تاثیر روش های مختلف درونیابی روی کیفیت پخش تلویزیون دیجیتال طبق استاندارد DVB-T2 ارزیابی شده است. یک بستر شبیه سازی آماده شده است که مدلهای مختلف کانال طبق اندازه گیری های واقعی در آن تعریف می گردد. درونیابی به ازای نسبتهای پایلوت مختلف با پنج روش متداول (نزدیکترین همسایه، خطی، مکعبی، اسپلاین و ماکیما) انجام می شود. پس از جبرانسازی کانال با نتیجه درونیابی، نرخ خطای بیت که معیار اصلی برای ارزیابی و مقایسه است بدست می آید. با انجام آزمایش های مختلف، قواعدی برای انتخاب درونیاب مناسب در شرایط متفاوت ارایه شده است. نتایج نشان می دهد وقتی محوشوندگی کانال نزدیک محوشوندگی تخت و یا نسبت پایلوت زیاد است، استفاده از درونیاب های ساده مانند درونیابی خطی بهتر است؛ ولی در شرایط دشوار یعنی وقتی محوشوندگی کانال شدید و یا نسبت پایلوت کم است، استفاده از درونیاب های پیچیده تر مانند درونیابی مکعبی و اسپلاین نتیجه بهتری دارد. میزان بهبود و تفاوت درونیاب ها به طور کمی استخراج شده است.

    کلیدواژگان: تخمین کانال، درونیابی یک بعدی، کانال های محوشونده، استاندارد DVB-T2
  • امیر محترمی، اکبر امینی صفحات 224-236

    امروزه، تجارت الکترونیکی بدلیل قابلیت های آن به شدت درحال گسترش است. مفهوم "اعتماد" عامل مهمی در سرعت گسترش تجارت الکترونیکی محسوب می شود. هدف این پژوهش استخراج ابعاد و معیارهایی برای فراهم نمودن تمهیدات اعتماد الکترونیک در سرویس های تجارت الکترونیکی، بهبود فرآیندهای داخلی محیط کسب و کار الکترونیک و همچنین تعیین اهمیت هریک از معیارها در تضمین اعتماد الکترونیک و رضایت مشتری می باشد. روش تحقیق و جمع آوری اطلاعات، میدانی است و بدین منظور از ابزار پرسشنامه محقق ساخته استفاده شده است. جامعه آماری دربرگیرنده کلیه مشتریان فروشگاه های آنلاین درحوزه کسب و کارهای اینترنتی تهران بوده،که از میان آنان نمونه گیری تصادفی بعمل آمده است. سوالات در چارچوب ابعاد و معیارهای تضمین کننده اعتماد الکترونیک در ارایه سرویس های الکترونیک و همچنین اولویت آنها مطرح و از طریق آمار استنباطی مورد بررسی قرار گرفته اند. نتایج به دست آمده بصورت چارچوبی متشکل از 12 شاخص در سه بعد روانشناختی، فنی- امنیتی و حقوقی دسته بندی شده است.

    کلیدواژگان: اعتماد الکترونیک، معماری اعتماد الکترونیک، تجارت الکترونیک، فروشگاه آنلاین
  • پیام شمس، سیده لیلی میرطاهری، رضا شهبازیان، احسان آریانیان صفحات 237-257

    در این مقاله مدلی مبتنی بر الگوریتم های فراابتکاری برای تخصیص بهینه منابعدر اینترنت اشیا مبتنی بر محاسبات مه پیشنهاد شده است. در مدل پیشنهادی، ابتدا درخواست کاربر به صورت یک جریان کاری به سیستم داده می شود؛ تا به‎ازای هر درخواست ابتدا نیازمندی های منابع (قدرت پردازش، حافظه ی ذخیره سازی و پهنای باند) استخراج می گردد. این مولفه وضعیت ترافیک درخواستی برنامه را از لحاظ بلادرنگ بودن تعیین می کند. درصورتی که کاربرد مورد نظر بلادرنگ نباشد و در مقابل تاخیر تا حدودی مقاوم باشد، درخواست به محیط ابری ارجاع داده می شود، اما اگر برنامه کاربردی مورد نظر نیاز به پاسخگویی بلادرنگ داشته باشد و حساس به تاخیر باشد، به صورت محاسبات مه با آن برخورد خواهد شد و به یکی از کلودلت ها نگاشته خواهد شد. این این مرحله به منظور انتخاب بهترین راه حل در تخصیص منابع جهت سرویس دهی به کاربران محیط IoT، از الگوریتم بهینه سازی شیر مورچه استفاده شد. روش پیشنهادی در محیط نرم افزاری متلب شبیه سازی شده و برای ارزیابی عملکرد آن از پنج شاخص انرژی مصرفی سلول های مه، زمان پاسخگویی، درجه ی عدم تعادل سلول های مه، تاخیر و پهنای باند استفاده گردیده است. بررسی یافته ها نشان می دهد که روش پیشنهادی، میزان انرژی مصرفی، نرخ تاخیر را در سلول های مه، نرخ پهنای باند مصرفی، میزان تعادل بار و زمان پاسخگویی را در مقایسه با طرح پایه (ROUTER) به ترتیب 22، 18، 12، 22 و 47 درصد بهبود داده است.

    کلیدواژگان: اینترنت اشیا، محاسبات مه، الگوریتم بهینه سازی شیر مورچه، تخصیص منابع
  • منصوره محمدنژاد فدردی، احرام صفری صفحات 254-265

    معمولا در انجام پروژه های پژوهشی یکی از مهمترین معیارهای واگذاری پروژه ها به مدیران پروژه داشتن قابلیت های فنی بوده و کمتر به مهارتهای ارتباطی مدیران پروژه چون دارا بودن هوش هیجانی پرداخته می شود. عدم توجه به این موضوع بنظر می رسد که باعث کاهش اثربخش ارتباطات تیمی و در نتیجه زمینه شکست پروژه ها را فراهم می آورد. پژوهش حاضر با هدف سنجش تاثیر ابعاد مختلف هوش هیجانی مدیران پروژه بر اثربخشی ارتباطات تیمی در پروژه-های پژوهشگاه های ایران انجام شده است. روش پژوهش حاضر توصیفی-تحلیلی از نوع همبستگی می باشد که جامعه آماری آن را مدیران پروژه و اعضای تیم های پروژه های پژوهشگاه ارتباطات و فناوری اطلاعات تشکیل می دهند. جامعه آماری شامل 19 تیم پروژه است که به روش سرشماری انتخاب شده اند. ابزارگردآوری داده ها پرسشنامه هوش هیجانی بار- آن و پرسشنامه سینیور جهت بررسی اثربخشی ارتباطات تیم پروژه می باشد. برای تجزیه و تحلیل داده ها از آزمون-های ضریب همبستگی پیرسون، رگرسیون چند متغیره و رگرسیون با متغیر موهومی و نیز آزمون تی وابسته استفاده شده است. نتایج نشان می دهد که هوش هیجانی مدیران پروژه بر ارتباطات اثربخش در تیم پروژه تاثیر دارد. با این حال، فقط مهارت های درون فردی، مهارت های میان فردی و سازگاری قادر به پیش بینی ارتباطات اثربخش در تیم پروژه هستند و ابعاد خلق و خوی عمومی و کنترل استرس تاثیری بر این روابط ندارند.

    کلیدواژگان: مدیر پروژه، هوش هیجانی، تیم پروژه، پژوهشگاه ارتباطات و فناوری اطلاعات
  • رضا بحری، سعید زینالی صفحات 266-282

    این مقاله، موضوع تامین توان اقتصادی و زیست محیطی برای ایستگاه های مخابرات سلولی در یک ریزشبکه مجزای مستقر در مناطق صعب العبور را مورد بررسی قرار داده است. ریزشبکه، شامل ژنراتوردیزلی، سیستم فتوولتاییک و منبع ذخیره هیدروژنی است. امکان تبادل انرژی ریزشبکه با باتری خودرو الکتریکی متصل شده به ریزشبکه، مورد بررسی قرار گرفت. با استفاده از شارژ/دشارژ هوشمند خودروهای الکتریکی تامین توان المان های ریزشبکه، صورت گرفته شده و حداکثر استفاده از انرژی های پاک به عمل آمده است. مدل ریاضی مسیله فوق به عنوان یک برنامه ریزی غیرخطی مختلط با اعداد صحیح اریه شد که ماهیت غیرخطی المان ها را مدلسازی می کند. در قالب بهینه سازی چندهدفه، بجز هزینه، گازهای گلخانه ای نیز از اهداف مسیله بوده و تعادلی بین این دو هدف متناقض در جبهه پارتو ایجاد شده است. در این مسیله، پارامتر های غیرقطعی، مانند تولید انرژی خورشیدی، الگو های رفتاری راننده ها (زمان رسیدن به ایستگاه شارژ، زمان خروج از ایستگاه شارژ، و مسافت روزانه طی شده، تولید) توسط سناریو های تصادفی مدلسازی شده است. نتایج به دست آمده نشان می دهد که شارژ/دشارژ هوشمند خودروهای الکتریکی، سهم چشمگیری در کاهش ریسک عملیاتی ریزشبکه، هزینه ی کل و گازهای گلخانه ای دارد. به طوریکه، استفاده از روش برنامه ریزی اقتصادی/زیست-محیطی پیشنهاد شده، منجر به %60/18 کاهش در مقدار گازهای گلخانه ای می شود.

    کلیدواژگان: دکل مخابراتی، تامین توان الکتریکی، خودرو های الکتریکی، ریزشبکه، گازهای گلخانه ای
|
  • farinaz sanaei, Seyed Abdollah Amin Mousavi, Abbas Toloie Eshlaghy, ali rajabzadeh ghotri Pages 1-19
    Background/ Purpose

    Among the most commonly diagnosed cancers, melanoma is the second leading cause of cancer-related death. A growing number of people are becoming victims of melanoma. Melanoma is also the most malignant and rare form of skin cancer. Advanced cases of the disease may cause death due to the spread of the disease to internal organs. The National Cancer Institute reported that approximately 99,780 people were diagnosed with melanoma in 2022, and approximately 7,650 died. Therefore, this study aims to develop an optimization algorithm for predicting melanoma patients' survival.

    Methodology

    This applied research was a descriptive-analytical and retrospective study. The study population included patients with melanoma cancer identified from the National Cancer Research Center at Shahid Beheshti University between 2008 and 2013, with a follow-up period of five years. An optimization model was selected for melanoma survival prognosis based on the evaluation metrics of data mining algorithms.

    Findings

    A neural network algorithm, a Naïve Bayes network, a Bayesian network, a combination of decision tree and Naïve Bayes network, logistic regression, J48, and ID3 were selected as the models used in the national database. Statistically, the studied neural network outperformed other selected algorithms in all evaluation metrics.

    Conclusion

    The results of the present study showed that the neural network with a value of 0.97 has optimal performance in terms of reliability. Therefore, the predictive model of melanoma survival showed a better performance both in terms of discrimination power and reliability. Therefore, this algorithm was proposed as a melanoma survival prediction model.

    Keywords: data mining, prediction, melanoma, disease survival, neural network, decision tree
  • Fatemeh Asghariyan, Mohsen Raji Pages 20-30

    In recent years, with the advancement of automotive electronics and the development of modern vehicles with the help of embedded systems and portable equipment, in-vehicle networks such as the controller area network (CAN) have faced new security risks. Since the CAN bus lacks security systems such as authentication and encryption to deal with cyber-attacks, the need for an intrusion detection system to detect attacks on the CAN bus seem to be very necessary. In this paper, a deep adversarial neural network (DACNN) is proposed to detect various types of security intrusions in CAN buses. For this purpose, the DACNN method, which is an extension of the CNN method using adversarial learning, detects intrusion in three stages; In the first stage, CNN acts as a feature descriptor and the main features are extracted, and in the second stage, the discriminating classifier classifies these features and finally, the intrusion is detected using the adversarial learning. In order to show the efficiency of the proposed method, a real open source dataset was used in which the CAN network traffic on a real vehicle during message injection attacks is recorded on a real vehicle. The obtained results show that the proposed method performs better than other machine learning methods in terms of false negative rate and error rate, which is less than 0.1% for DoS and drive gear forgery attack and RPM forgery attack while this rate is less than 0.5% for fuzzy attack.

    Keywords: In-vehicle network, Controller area network (CAN), Intrusion detection, Convolutional neural network (CNN), Adversarial Training
  • Mahdi Azizi MehmanDoost, MohammadReza Hosseini, reza taghipour, Mojtaba Mazoochi Pages 31-74

    The purpose of this research is to present the framework of the national plan for transparency and information release. The research employs an integrated approach (qualitative and quantitative) and grounded theory as its research methodology. In the qualitative part، with an in-depth and exploratory review of upstream laws and documents، models، theories، plans، and white papers of different countries related to transparency and information release، data analysis was done until theoretical saturation through three stages of open، axial، and selective coding. To acquire the dimensions، components، and subcomponents of this framework، 129 concepts were extracted from 620 primary codes، which were reduced to 593 secondary codes by removing the duplicated elements. Finally، 24 subcategories were placed under the five main components based on the paradigm model. In the quantitative section، the results of the analysis of the questionnaire indicated that، from a validity standpoint، the total value of the questionnaire، in different dimensions، was between 0.87 and 0.92، and the reliability coefficient was between 0.73 and 0.78. Based on data analysis، the establishment of a supranational management institution for transparency and information release، the precise determination of exceptions، network governance، demanding transparency، adherence to frameworks، maximum disclosure and support for legitimate disclosure، and the establishment of a data governance center are among the subcategories emphasized in this framework.

    Keywords: macro plan framework, information transparency, information release, grounded theory method, paradigm model
  • Azam sadtat Mortazavi kahangi, Parviz Saketi, Javad Mehrabi Pages 48-62

    The purpose of this research is to identify the drivers, obstacles and consequences of digital entrepreneurship in Iran's road freight transportation industry. The statistical society of this research in the qualitative part was made up of 20 experts in this field who were selected using theoretical saturation. In the quantitative part, using Cochran's formula and cluster sampling method, 170 employees of this industry were selected as samples. In order to collect data, a semi-structured interview was used in the qualitative part and a researcher-made questionnaire was used in the quantitative part, whose validity and reliability were checked and confirmed. In the data analysis, systematic literature review and coding and Maxqda software were used in the qualitative part, and inferential statistics and SPSS and Lisrel software were used in the quantitative part. Finally, 9 indicators in 4 driver factors, 11 indicators in 3 obstacle factors and 55 indicators in 8 consequence categories were extracted and prioritized using factor analysis. The result of this research shows that the political component is a priority as a driver and political obstacles are a priority as an obstacle. Therefore, the role of the government in this field is very important.

    Keywords: Digital entrepreneurship, Road freight transportation industry, Drivers, Obstacles, Consequences
  • Arash Ghorbannia Delavar*, Reza Akraminejad, sahar mozafari Pages 62-76

    Application of cloud computing in different datacenters around the world has led to generation of more co2 gas. In addition, energy and throughput are the two most important issues in this field. This paper has presented an energy and throughput-aware algorithm for scheduling of compressed-instance workflows in things-internet by cluster processing in cloud. A method is presented for scheduling cloud workflows with aim of optimizing energy, throughput, and latency. In the proposed method, time and energy consumption has been improved in comparison to previous methods by creating distance parameters, clustering inputs, and considering real execution time. In WSTMOS method by considering special parameters and real execution time, we managed to reach the optimized objective function. Moreover, in the proposed method parameter of time distance of tasks to virtual machines for reduction of number of migration in virtual machines was applied. In WSTMOS method by organizing the workflow inputs to low, medium and heavy groups and also by distributing appropriate load on more suitable servers for processors threshold, we accomplished to optimize energy and cost. Energy consumption was reduced by 4.8 percent while the cost was cut down by 4.4 percent using this method in comparison to studied method. Finally, average delay time, power and workload are optimized in comparison to previous methods.

    Keywords: Scheduling, Cloud Computing, Load Balancing, Energy, Cost, Batch Processing, Throughput
  • reza molaee fard, mohammad mosleh Pages 77-92

    Recommender systems can predict future user requests and then generate a list of the user's favorite pages. In other words, recommender systems can obtain an accurate profile of users' behavior and predict the page that the user will choose in the next move, which can solve the problem of the cold start of the system and improve the quality of the search. In this research, a new method is presented in order to improve recommender systems in the field of the web, which uses the DBSCAN clustering algorithm to cluster data, and this algorithm obtained an efficiency score of 99%. Then, using the Page rank algorithm, the user's favorite pages are weighted. Then, using the SVM method, we categorize the data and give the user a combined recommender system to generate predictions, and finally, this recommender system will provide the user with a list of pages that may be of interest to the user. The evaluation of the results of the research indicated that the use of this proposed method can achieve a score of 95% in the recall section and a score of 99% in the accuracy section, which proves that this recommender system can reach more than 90%. It detects the user's intended pages correctly and solves the weaknesses of other previous systems to a large extent.

    Keywords: Recommender system, data mining, DBSCAN algorithm, SVM algorithm, machine learning
  • ahmad dolatkhah, Behnam Dorostkar Yaghouti, raheb hashempour Pages 94-110

    As technology develops, institutions and organizations provide many services electronically and intelligently over the Internet. The police, as an institution that provides services to people and other institutions, aims to make its services smarter. Various electronic and intelligent systems have been offered in this regard. Because these systems lack authentication, many services that can be provided online require a visit to +10 police stations. Budget and equipment limitations for face-to-face responses, limitations of the police force and their focus on essential issues, a lack of service offices in villages and a limited number of service offices in cities, and the growing demand for online services, especially in crisis situations like Corona disease, electronic authentication is becoming increasingly important. This article reviews electronic authentication and its necessity, liveness detection methods and face recognition which are two of the most important technologies in this area. In the following, we present an efficient method of face recognition using deep learning models for face matching, as well as an interactive liveness detection method based on Persian speech recognition. A final section of the paper presents the results of testing these models on relevant data from this field.

    Keywords: Electronic Authentication, Face Recognition, Liveness Detection, Speech Recognitio
  • Niloufar Moradhassel, Bita Mohebikhah Pages 111-121
    Background and Purpose

    In most of the studies, the direct effects of the ICT sector have been discussed, but the indirect effects (spillover) and how to measure them have not been addressed. This issue is on the agenda of this article. For this purpose, while determining the territory of the digital economy, the gross value of the core of the country's digital economy has been estimated.

    Methodology

    In this article, using the Solow growth model, the spillover effects of the core of the digital economy (ICT) have been estimated for the period of 2002-2019.

    Findings

    The results imply that in the period under review, according to the elasticity of labor productivity relative to the share of net capital formation of the ICT sector in the national economy (about 0.3), the spillover effects of the digital economy core have increased from 210 thousand billion Rials in 2015 to 279 thousand billion of Rials in 2019.

    Keywords: Digital Economy, ICT, Spillover Effects, Private Efficiency, Social Efficiency
  • faezeh forootan, Mohammad Rabiei Pages 122-137

    The retail market industry is one of the industries that affects the economies of countries, the life of which depends on the level of satisfaction and trust of customers to buy from these markets. In such a situation, the retail market industry is trying to provide conditions for customer feedback and interaction with retailers based on web pages and online platforms. Because the analysis of published opinions play a role not only in determining customer satisfaction but also in improving products. Therefore, in recent years, sentiment analysis techniques in order to analyze and summarize opinions, has been considered by researchers in various fields, especially the retail market industry.

    Keywords: Sentiment Analysis, Persian Language, CNN-BiLSTM, BERT, Retail Market
  • hamed ojaghi, Iman Zohoorian Nadali, Fatemeh Soleymani Roozbahani Pages 138-152

    As an emerging technological field, artificial intelligence has received increasing attention from companies and governments. The development of artificial intelligence both at business and country levels depends on knowing the current situation. This paper identifies the artifacts and producers presented in this field and maps them to transformational levels. Products/services and producers are achieved through capabilities provided by artificial intelligence. Then, based on the classification methodology and meta-characteristics, the transformational levels of the artifacts of Iran's artificial intelligence ecosystem have been extracted. 562 products/services were identified, which were offered by 112 companies. Machine vision and natural language processing have been at the top of the technologies used, with 44 and 27 percent of the products allocated to them, respectively. Artifacts and producers were classified into seven transformative levels: individual, organization, industry, electronic chip/hardware, society, platform, code/algorithm/library, and infrastructure. Iran's artificial intelligence productions have not grown in a balanced way. The three levels of platform, code/algorithm/library, and infrastructure as the main generator of other artificial intelligence products/services have had the lowest amount of production. It is suggested that a specialized marketplace for the supply of artificial intelligence application programming interfaces should be put on the agenda to stimulate the formation of the ecosystem.

    Keywords: Artificial intelligence, disruptive innovation, transformation, ecosystem, artifacts, Producers
  • Huda Al-Shohayyeb, Behrooz Minaei, MohammadEbrahim Shenassa, Sayyed Ali Hossayni Pages 153-164

    The Arabic language has a very rich and complex morphology, which is very useful for the analysis of the Arabic language, especially in traditional Arabic texts such as historical and religious texts, and helps in understanding the meaning of the texts. In the morphological data set, the variety of labels and the number of data samples helps to evaluate the morphological methods, in this research, the morphological dataset that we present includes about 22, 3690 words from the book of Sharia alIslam, which have been labeled by experts, and this dataset is the largest in terms of volume and The variety of labels is superior to other data provided for Arabic morphological analysis. To evaluate the data, we applied the Farasa system to the texts and we report the annotation quality through four evaluation on the Farasa system.

    Keywords: Morphology, Arabic Language, Annotation, Dataset, Morphological Analysis
  • mohammadreza zeraatkarmoghaddam*, majid ghayori Pages 165-190

    Due to the increasing use of industrial Internet of Things (IIoT) systems, one of the most widely used security mechanisms is intrusion detection system (IDS) in the IIoT. In these systems, deep learning techniques are increasingly used to detect attacks, anomalies or intrusions. In deep learning, the most important challenge for training neural networks is determining the hyperparameters in these networks. To overcome this challenge, we have presented a hybrid approach to automate hyperparameter tuning in deep learning architecture by eliminating the human factor. In this article, an IDS in IIoT based on convolutional neural networks (CNN) and recurrent neural network based on short-term memory (LSTM) using metaheuristic algorithms of particle swarm optimization (PSO) and Whale (WOA) is used. This system uses a hybrid method based on neural networks and metaheuristic algorithms to improve neural network performance and increase detection rate and reduce neural network training time. In our method, considering the PSO-WOA algorithm, the hyperparameters of the neural network are determined automatically without the intervention of human agent. In this paper, UNSW-NB15 dataset is used for training and testing. In this research, the PSO-WOA algorithm has use optimized the hyperparameters of the neural network by limiting the search space, and the CNN-LSTM neural network has been trained with this the determined hyperparameters. The results of the implementation indicate that in addition to automating the determination of hyperparameters of the neural network, the detection rate of are method improve 98.5, which is a good improvement compared to other methods.

    Keywords: intrusion detection system, Industrial Internet of Things, metaheuristic algorithms, neural networks
  • Kiomars Salimi, Mahdi Mollamotalebi* Pages 191-210

    Nowadays, Cloud computing has many applications due to various services. On the other hand, due to rapid growth, resource constraints and final costs, Cloud computing faces with several challenges such as load balancing. The purpose of load balancing is management of the load distribution among the processing nodes in order to have the best usage of resources while having minimum response time for the users’ requests. Several methods for load balancing in Cloud computing have been proposed in the literature. The shuffled frog leaping algorithm for load balancing is a dynamic, evolutionary, and inspired by nature. This paper proposed a modified rapid shuffled frog leaping algorithm (R-SFLA) that converge the defective evolution of frogs rapidly. In order to evaluate the performance of R-SFLA, it is compared to Shuffled Frog Leaping Algorithm (SFLA) and Augmented Shuffled Frog Leaping Algorithm (ASFLA) by the overall execution cost, Makespan, response time, and degree of imbalance. The simulation is performed in CloudSim, and the results obtained from the experiments indicated that the proposed algorithm acts more efficient compared to other methods based on the above mentioned factors.

    Keywords: Cloud computing, Load balancing, Rapid shuffled frog leaping, Resource scheduling, Response time
  • Ali Pouladsadeh, Mohammadali Sebghati Pages 211-223

    Variations in telecommunication channels is a challenge of the wireless communication which makes the channel estimation and equalization a noteworthy issue. In OFDM systems, some subcarriers can be considered as pilots for channel estimation. In the pilot-aided channel estimation procedure, interpolation is an essential step to achieve channel response in data subcarriers. Choosing the best interpolation method has been the subject of various researches, because there is no interpolator as the best method in all conditions, and their performance depends on the fading model, signal-to-noise ratio and pilot overhead ratio. In this paper, the effect of different interpolation methods on the quality of DVB-T2 broadcast links is evaluated. A simulation platform is prepared in which different channel models are defined according to the real-world measurements. The interpolation is performed by five widely-used methods (nearest neighbor, linear, cubic, spline, and Makima) for different pilot ratios. After channel equalization by the results of the interpolator, the bit error rate is calculated as the main criterion for evaluation and comparison. The rules of selecting the appropriate interpolator in different conditions is presented. It is generally concluded that for fading scenarios close to flat fading or high pilot overhead ratio, the simple interpolators such as linear interpolator are proper choices. But in harsh conditions, i.e. severe frequency-selective fading channels or low pilot overhead ratio, the more complicated interpolators such as cubic and spline methods yield better results. The amount of improvements and differences are quantified in this study.

    Keywords: Channel Estimation, One-dimensional Interpolation, Fading Channels, DVB-T2 standard
  • amir Mohtarami, Akbar amini Pages 224-236

    Today, e-commerce is rapidly expanding as a way of doing business in the modern world due to its advantages and benefits. The purpose of this study is to extract dimensions and criteria for providing electronic trust arrangements in B2C services, improving the internal processes of the business environment, and also determining the importance and priority of each criterion to ensure electronic trust in order to gain the trust and satisfaction of the customer. A mixed method of research is employed includes: litrature review, field study and opinion gathering alongside of statistical techniques. The statistical population includes all expert customers of online stores in the city of Tehran, among which random sampling has been done. Questions in the context of the electronic trust and provision of e-business services and their priority in relation to each other, are discussed through inferential statistics. The results of the data analysis show that there is a meaningful relationship between the 12 criteria identified and customer's trust. The results obtained in the context of the conceptual framework show the impact of three dimensions of psychological, technical and legal, according to the criteria and indicators of electronic trust

    Keywords: E-trust, E-business, E-trust architecture, online store
  • payam shams, Seyedeh Leili Mirtaheri, reza shahbazian, ehsan arianyan Pages 237-257

    In this paper, a model based on meta-heuristic algorithms for optimal allocation of IoT resources based on fog calculations is proposed. In the proposed model, the user request is first given to the system as a workflow; For each request, the resource requirements (processing power, storage memory, and bandwidth) are first extracted. This component determines the requested traffic status of the application in terms of real-time. If the application is not real-time and is somewhat resistant to latency, the request will be referred to the cloud environment, but if the application needs to respond promptly and is sensitive to latency, it will be dealt with as a fog calculation. It will be written to one of the Cloudletes. In this step, in order to select the best solution in allocating resources to serve the users of the IoT environment, the ant milk optimization algorithm was used. The proposed method is simulated in MATLAB software environment and to evaluate its performance, five indicators of fog cells energy consumption, response time, fog cell imbalance, latency and bandwidth have been used. The results show that the proposed method reduces the energy consumption, latency rate in fog cells, bandwidth consumption rate, load balance rate and response time compared to the base design (ROUTER) 22, 18, 12, 22 and 47, respectively. Percentage has improved.

    Keywords: IoT, fog calculations, ant lion optimization algorithm, resource allocation
  • Mansoureh Mohammadnezhad Fadard, Ehram Safari Pages 254-265

    Generally, in performing technical projects, especially in the field of information and communication technology, the most important criterion for handing over the project is having technical capabilities, and less attention is paid to the communication skills of project managers, such as having emotional intelligence. Lack of attention to this issue seems to reduce the effectiveness of team communication and thus lead to project failure. The aim of this study was to measure the effect of emotional intelligence of project managers on the effectiveness of team communication in the projects of the Institute of Communication and Information Technology. The method of the present research is descriptive-analytical of correlation type, the statistical population of which consists of project managers and members of the project teams of the Research Institute of Communication and Information Technology. The statistical population includes 19 project teams that have been selected by census method. Data collection tools are Bar-On Emotional Intelligence Questionnaire and Senior Questionnaire to evaluate the effectiveness of project team communication. Pearson correlation coefficient, multivariate regression and imaginary variable regression and dependent t-test were used to analyze the data. The results show that the emotional intelligence of project managers affects effective communication in the project team. However, only interpersonal skills, interpersonal skills, and adaptability can predict effective communication within the project team, and the dimensions of general mood and stress management do not affect these relationships

    Keywords: Project Managers, Emotional Intelligence, Project Teams, Effective Team Communications, Iran Telecommunication Research Center
  • Reza Bahri *, saeed zeynali Pages 266-282

    The cellular base stations are communication devices that ensure the connection in the world. Nevertheless, they are usually installed in remote places. This paper, studied the energy procurement of a cellular base stations in an independent microgrid with a hydrogen-based energy storage system, photovoltaic (PV) system, electric vehicles and a diesel generator. A new mixed-integer nonlinear programming model was used to deal with nonlinearities of the system components. The paper studied different uncertainties, such as the connection rate in cellular base stations, the driver of the electric vehicle, and PV generation, using stochastic programming method. The potency of the proposed method was studied in different case studies. The results prove that smart electric vehicle chargers reduce the risks and also cost/emission objective functions. The usage of this model can reduce the emissions as much as 18.60%.

    Keywords: Cellular base station, Energy procurement, Electric machines, Microgrids