فهرست مطالب

نشریه فناوری اطلاعات و ارتباطات ایران
سال پانزدهم شماره 55 (بهار و تابستان 1402)

  • تاریخ انتشار: 1402/06/16
  • تعداد عناوین: 18
|
  • محمدرضا شمس *، احمد براآنی، مهدی هاشمی صفحات 1-14

    با گسترش روزافزون علم و فناوری، تحلیل نظرات کاربران و تعیین نحوه نگرش کاربر به موضوعهای مختلف به یک امر مهم تبدیل شده است. نظرکاوی فرایند استخراج نگرش افراد از روی نظرات نوشته شده است که در سه سطح سند، جمله و جنبه قابل انجام است. در سطح جنبه، نظر افراد در خصوص جنبه های مختلف یک موضوع بررسی میشود. مهمترین زیر بخش نظرکاوی جنبهگرا، استخراج جنبه است که موضوع اصلی این پژوهش میباشد. در بسیاری از روش های ارایه شده برای استخراج جنبه، راه حل مورد نظر نیاز به مجموعه یادگیری اولیه و یا منابع زبانی وسیع دارند که تهیه چنین داده هایی بسیار زمانبر و پرهزینه است. در این مقاله، رویکردی بدون نظارت برای استخراج جنبه مبتنی بر مدل موضوعی و بردار کلمات پیشنهاد میشود که از ایجاد گراف کلمات برای ادغام اطلاعات معنایی و دانش دامنه استفاده میکند. نتایج ارزیابیها نشان از این دارد که روش پیشنهادی نه تنها باعث بهبود دقت استخراج جنبه در مقایسه با سایر روش های پیشین شده است، بلکه تمامی مراحل به صورت خودکار و بدون دخالت کاربر انجام میشود و بدلیل عدم وابستگی به منابع زبانی، در زبانهای مختلف قابل اجرا میباشد.

    کلیدواژگان: متنکاوی، نظرکاوی، بردار کلمات، استخراج جنبه، دانش دامنه، گراف کلمات
  • فرهاد اصغری استیار، امیر محمدزاده *، ابراهیم عباسی صفحات 14-25

    این مقاله به بررسی ارزش پایه سیستم های مبتنی بر دیجیتال)دارای پلت فرم دیجیتال(مانند اینستاگرام و گوگل در ایران میپردازد. علی رغم ماهیت تحول تکنولوژی های دیجیتال، ارزش گذاری سرویسهای دیجیتال، با توجه به اینکه استفاده از آنها رایگان است چالش برانگیز میباشد. در این مقاله سعی شده با استفاده از ترکیب روش آزمایشهای انتخابی گسسته با روش نظرسنجی، داده اصلی را فراهم و ارزش کالا و خدمات دیجیتالی را مشخص نماییم. برای اولین بار، داده های مربوط به تمایل به پرداخت و تمایل به پذیرش، همراه با متغیرهای اجتماعی و اقتصادی بدست آمده و تحلیل شده است. ارزش از نگاه مشتری برای خدمات دیجیتال رایگان در ایران در بهمن ماه 1400 به طور متوسط برای سرویسهای مختلف گوگل 9 / 4 میلیون ریال در هفته و برای برنامه اینستاگرام 27 / 3 میلیون ریال بدست آمده است. این آغازی بر ارزش گذاری سرویس های رایگان مانند شاد، روبیکا، ذره بین و... در ایران می باشد که از آغاز پاندمی کووید 19 نقش بسزایی در صنعت ارتباطات بخود اختصاص داده است و در بحث شبکه ملی اطلاعات و تعیین مدلی برای ارزشگذاری داراییهای نامشهود فناوری ودیجیتال و نیز ارزش بازار شرکتهای ارایه دهنده این سرویس ها بسیار حایز اهمیت خواهد بود

    کلیدواژگان: پلت فرم دیجیتال، ارزش گذاری، سرویسهای رایگان، کووید 19، دارایی نامشهود
  • محمود نعمت الله زاده، احسان آریانیان *، مسعود حایری خیاوی، نیلوفر قلی پور، عبدالله سپهوند صفحات 26-46

    با توجه به رشد سریع و همه جانبه زندگی بشری و وابستگی بیش از پیش آن به فناوریهای دیجیتال، نیاز ما به انجام رایانشهای فوق سریع روز به روز در حال افزایش است. تاکنون عمده پاسخگویی به نیازهای رایانش فوق سریع در دنیا مبتنی بر فناوریهای متعارف سیلیکونی بوده است، این در حالی است که با توجه به پیش بینی گوردون مور، پایان عصر فناوریهای مبتنی بر سیلیکون)عصر مور(نزدیک است. این واقعیت دانشمندان را به سمت استفاده از فناوریهای نوظهوری همانند: رایانش کوانتومی، رایانش مولکولی، رایانش زیستی، رایانش نوری، رایانش نانو، رایانش حافظه ای و اقسام مشابه آن سوق داده است. در این مقاله، ضمن معرفی اجمالی این فناوریها و نحوه مشارکت آنها در حوزه رایانه ها، به بررسی وضعیت حال و آینده آنها پرداخته شده و چالشهای موجود در آنها مورد بررسی قرار میگیرد. همچنین، با ارایه دستهبندی مربوط به هرکدام از این فناوری ها، از جنبه رایانشی، موضوعات و چالشهای تحقیقاتی موجود در آنها ارایه میگردد که میتواند چراغ راه تحقیق و پژوهش آتی در حوزه های مختلف مربوط به آنها باشد. در انتهای مقاله نیز به مقایسه میزان اقبال به این فناوریها در مراجع علمی و تحقیقاتی از طریق بررسی آمار چاپ مقالات و کتابها در حوزه های مذکور از سال 2017 تا 2021 پرداخته شده است و اینکه کدام یک از این فناوریها قابلیت ارایه مدل محاسباتی نوین در رایانه های فوق سریع آینده را خواهند داشت.

    کلیدواژگان: رایانش فوق سر یع، رایانش کوانتومی، رایانش مولکولی، رایانش زی ست ی، رایانش ع صبگون، رایانش نوری، رایانش نانو، رایانش حافظه ای
  • وحیده سحرگاهی، وحید مجیدنژاد*، سعید تقوی افشورد، باقر جعفری صفحات 48-77

    طبق نظریه ناهار مجانی (NFL) هیچ الگوریتم فرا اکتشافی موجود قادر به حل همه نوع مسایل به طور کارآمد نیست، بنابراین هر ساله الگوریتمهای جدیدی جهت تنوع بخشی پیشنهاد میشوند. در این مقاله، الگوریتم فراابتکاری جدیدی به نام IWOGSA ، برای مسایل بهینهسازی پیوسته پیشنهاد شده است که ترکیبی از الگوریتمهای بهینهسازی علفهای هرز و جستجوی گرانشی است. در IWOGSA والدها به دو صورت تکثیر می شوند و از هر دسته نمونه هایی برای انتقال به نسل جدید انتخاب میگردد. بخشی از تکثیر با توزیع نرمال صورت میگیرد و بخشی دیگر بر مبنای روابط سرعت و شتاب حرکت سیارات در الگوریتم جستجوی گرانشی انجام میشوند. یک مدل گسسته جدید از IWOGSA به نام DIWOGSA برای حل مساله های بهینهسازی گسسته پیشنهاد شده است و کارایی آن بر روی یک چالش حیاتی تحت عنوان بیشینهسازی نفوذ ارزیابی شده است. در DIWOGSA از رویکرد هوشمندانهای برای مقداردهی اولیه جمعیت استفاده شده و برای همگرایی سریعتر الگوریتم، یک عملگر جستجوی محلی پیشنهاد شده است. در حالت پیوسته الگوریتم IWOGSA با توابع بنچمارک استاندارد و کامپوزیت و 3 مساله مهندسی رایج ارزیابی شده است. نتایج پیادهسازی ثابت میکند که الگوریتم IWOGSA در مقایسه با روش های اخیر و متداول بسیار رقابتی بوده و با توجه به نتایج رتبهبندی آزمون فریدمن، توانسته است رتبه اول را کسب نماید. در حالت گسسته نیز الگوریتم DIWOGSA با در نظر گرفتن شبکه های مختلف ارتباطاتی بین محققان برای مساله بیشینهسازی نفوذ مورد ارزیابی قرار گرفته و در مقایسه با الگوریتمهای رایج در این زمینه از نظر میزان نفوذ و زمان اجرا نتایج قابل قبولی را کسب کرده است.

    کلیدواژگان: الگوریتم بهینهسازی علفهای هرز، الگوریتمهای جستجوی گرانشی، الگوریتم IWOGSA
  • سید امید آذرکسب *، سید حسین خواسته، مصطفی امیری صفحات 85-103

    یک راه حل منطقی برای لحاظکردن هم پوشانی خوشه ها، انتساب مجموعه ای از درجه عضویت به هر داده است. بهدلیل کمشدن افرازها و کوچکشدن فضای جستجو، خوشه بندی فازی عموما دارای سربار محاسباتی کمتری بوده، تشخیص و مدیریت داده های مبهم، نویزدار و داده های پرت نیز در آن به سهولت انجام می گیرد. ازاین رو خوشه بندی فازی از نوع پیشرفته روش های خوشه بندی به شمار میرود. اما روش های خوشه بندی فازی در مواجه با روابط غیرخطی داده ها ناتوانند. روش پیشنهادی این مقاله می کوشد تا مبتنی بر ایده های امکان پذیری، از یادگیری چندهسته ای در چارچوب نگاشت کاهش هدوپ برای تشخیص خوشه های خطی جدایی ناپذیر با ساختار کلان داده های پیچیده، استفاده کند. مدل یادگیری چندهسته ای قادر به کشف روابط پیچیده بین دادهای بوده و در عین حال هدوپ ما را قادر خواهد ساخت تا به جای تعامل با سیستم عامل و پردازنده، با یک کلاستر منطقی از پردازش ها و گره های انباره داده تعامل داشته باشیم و عمده کار را بر عهده فریمورک بیندازیم. به طور خلاصه مدلسازی روابط غیرخطی داده ها با استفاده از مدل یادگیری چند هسته ای، تعیین مقادیر مناسب برای پارامترهای فازی سازی و امکان پذیری، و ارایه الگوریتم در مدل نگاشت کاهش هدوپ از دستاوردهای کلیدی مقاله حاضر میباشد. آزمایش ها برروی یکی از مجموعه داده های پر استفاده مخزن یادگیری UCI و همچنین برروی دیتاست شبیه ساز CloudSim پیاده سازی شده است و نتایج قابل قبولی به دست آمده است. طبق مطالعات منتشر شده، مخزن یادگیری UCI برای مقاصد رگرسیون و خوشه بندی کلان داده، و مجموعه داده CloudSim برای شبیه سازی موارد مربوط به رایانش ابری، محاسبه تاخیرهای زمانی و زمانبندی انجام وظایف معرفی شده اند.

    کلیدواژگان: داده های کلان، خوشه بندی، منطق فازی، یادگیری چندهسته ای، هدوپ، نگاشت کاهش
  • مونا جامی پور *، شهناز اکبری امامی، صفورا فیروزه صفحات 104-123

    استراتژ ی فناوری اطلاعات عامل کلیدی در بهبود فرآیند و عملکرد شرکت ها در بکارگیری فناوری اطلاعات میباشد . از اینرو، بس یاری از شرکت ها دارای فرآیند برنامهریزی راهبردی ه ستند اما فقط تعداد اندک ی از آنها موفق به اجرای کارآمد ا ستراتژ یها می شوند . لذا، هدف پژوهش حا ضر طراح ی چارچوب فرآیندی اجرای ا ستراتژ ی فناوری اطلاعات میبا شد؛ تا پی شران ها، فرآیندها پیامدهای اجرای اس تراتژی فناوری اطلاعات در سازمان ها شناسا یی نماید. پژوهش حاضر پژوهش ک یفی با رویکرد پدیدارشناسانه محسوب م یشود و به منظور گردآوری داده ها، با استفاده از نمونه گیری نظری با 10 خبره وکارشناس حوزه فناور ی اطلاعات مصاحبه های باز و عمیق صورت گرفت و داده های حاصل با رویکرد پدیدارشللناسللی در چارچوب ورودی- فرایند- پیامد مورد تحلیل قرار گرفتند. نتایح تحلیل نشان میدهد، ورودیها تحت عنوان پیشللرانهای اجرای اسللتراتژی فناوری اطلاعات شللامل الزامات محیطی تداوم کسللو وکار، انسلل ام سلاختاری- للیلتمی، منابع انسانی فناور محور، رهبری اسلراتژیک فناوری اطلاعات، نیازمندیهای مهارتی و ارزشهای مشلتر میباشد. وجه دوم مدل اجرای اسللتراتژی فناوری اطلاعات ابعاد پایش و ابلاغ برنامه فناوری اطلاعات، تناسلو سللاختار ی، توسعه سیا ست های پ شت یبان، بودجهبندی و تخ ص یص منابع، آموزشهای متنا سو و تو سعه فرهنگ ان ام کار را شامل م ی شود . در نهایت پیامدهای اجرای استراتژ ی فناوری اطلاعات شامل پ یامدهای مرتبط با مالی، فرآیند داخلی، مشتر ی و رشد و یادگیری میباشد، دس ته بندی شدند.

    کلیدواژگان: فناوری اطلاعات، اجرای استراتژی، سیستمهای اطلاعاتی، برنامهریزی استراتژیک، چارچوب ورودی-فرایند-پیامد
  • شمیم یوسفی، صمد نجارقابل * صفحات 124-140

    استفاده از نتایج خام رادیوگرافی در تشخیص بیماریهای ریوی عملکرد قابلقبولی ندارد. یادگیری ماشین میتواند به تشخیص دقیقتر بیماریها کمک کند. مطالعات گستردهای در حوزه تشخیص خودکار بیماریها با کمک یادگیری ماشین کلاسیک و عمیق انجام شده؛ اما این روش ها دقت و کارایی قابلقبولی ندارند یا به داده های یادگیری زیادی نیاز دارند. برای مقابله با این چالشها، در این مقاله، روش جدیدی برای تشخیص خودکار بیماریهای ریوی بینابینی در تصاویر رادیوگرافی ارایه میشود. در گام اول، اطلاعات بیمار از تصاویر حذف شده؛ سپس، پیکسلهای باقیمانده، جهت پردازشهای دقیقتر، استانداردسازی میشوند. در گام دوم، پایایی روش پیشنهادی با کمک تبدیل رادان بهبود یافته، داده های اضافی با استفاده از فیلتر Top-hat حذف شده و نرخ تشخیص با بهرهبرداری از تبدیل موجک گسسته و تبدیل کسینوسی گسسته افزایش مییابد. سپس، تعداد ویژگیهای نهایی با کمک آنالیز تشخیصی حساس به مکان کاهش مییابد. در گام سوم، تصاویر پردازششده به دو دسته یادگیری و تست تقسیم میشوند؛ با استفاده از داده های یادگیری، مدلهای مختلفی ایجاد شده و با کمک داده های تست، بهترین مدل انتخاب میشود. نتایج شبیهسازیها بر روی مجموعه داده NIH نشان میدهد که روش پیشنهادی مبتنی بر درخت تصمیم با بهبود میانگین هارمونیک حساسیت و صحت تا 08 / 1 برابر، دقیقترین مدل را ارایه میدهد.

    کلیدواژگان: آنالیز تشخیصی حساس به مکان، تبدیل کسینوسی گسسته، تبدیل موجک گسسته، تشخیص بیماریهای ریوی بینابینی، تصاویر رادیوگرافی، درخت تصمیم
  • سوگند دهقان، شهریار محمدی *، روجیار پیرمحمدیانی صفحات 141-164

    شبکه های اجتماعی به دلیل سرعت انتشار رویدادها و نیز حجم زیاد اطلاعات، به یکی از مهمترین منابع تصمیم گیری در سازمان ها تبدیل شده اند. ولی پیش از استفاده، صحت، قابلیت اطمینان و ارزش اطلاعات تولید شده توسط آنها، باید مورد ارزیابی قرار گیرد. به این منظور، بررسی اعتبار اطلاعات با توجه به ویژگی های شبکه های اجتماعی در سه سطح کاربر، محتوا و رویداد امکان پذیر می باشد. سطح کاربر، قابل اطمینان ترین سطح این حوزه می باشد، زیرا کاربر معتبر، معمولا اقدام به انتشار محتوای معتبر مینماید. از این رو، ارزیابی سطح کاربر مورد توجه این پژوهش می باشد. بیشتر مقالات مرتبط به حوزه ارزیابی اعتبار کاربران شبکه های اجتماعی به ارزیابی اعتبار کاربران در حالت کلی پرداخته اند و از اهداف سازمانی مانند ارزیابی اعتبار کاربران به منظور یافتن افراد خلاق چشم پوشی نموده اند. همچنین چرخه حیات کلان داده و مولفه های مهم در فرآیند ارزیابی اعتبار کاربران کمتر مورد توجه قرار گرفتهاند. از این رو، این تحقیق با بررسی 50 مقاله مهم در این حوزه، مولفه های مهم را به سه مولفه اصلی)تعیین موضوع محتوا، انتخاب ویژگی ها و ارزیابی اعتبار(دسته بندی مینماید و روش ها و ویژگی های مربوط به هر یک را مورد بحث قرار می دهد. نهایتا یک چارچوب اولیه ارزیابی اعتبار کاربران شبکه های اجتماعی با توجه به اهداف سازمانی و چرخه حیات کلان داده ارایه گردید. هدف این چارچوب، ارایه یک راهنما مناسب به سازمان ها، برای محاسبه میزان اعتبار کاربران در فرآیند تصمیم گیری میباشد.

    کلیدواژگان: اعتبار اطلاعات، کاربران معتبر، منابع اطلاعاتی معتبر، چرخه حیات کلان داده، اهداف سازمانی، شبکه های اجتماعی
  • زینب خداوردیان، حسین صدر *، مژده نظری سلیماندارابی، سید احمد عدالت پناه صفحات 166-189

    افزایش تقاضا برای کاربردهای مبتنی بر ابر و استفاده ناکارآمد از منابع، موجب مصرف بیرویه انرژی در مراکز داده ابری شده است. مدیریت پویای منابع در مراکز داده با هدف کاهش مصرف انرژی، از طریق پیشبینی بار کاری ماشین مجازی امکانپذیر است. پیشبینی بار کاری ماشین مجازی این امکان را میدهد که ماشین مجازی متناسب با درخواست کاربران در زمان مناسب مهاجرت کند و در مصرف انرژی موثر باشد و منابع را به کارآمدترین روش تخصیص دهد. پیشبینی بار کاری ماشین مجازی میتواند بر اساس الگوی درخواست کاربران باشد برای این منظور میتوان ماشینهای مجازی را بر اساس پیشبینی مصرف منابع)به عنوان مثال میانگین مصرف پردازنده(در کلاسهای حساس یا غیر حساس به تاخیر دستهبندی کرد و سپس، ماشینهای مجازی متناسب با در خواست کاربران را به آنها اختصاص داد. در واقع پیشبینی بار کاری و تحلیل پیشبینی به عنوان یک فرآیند اولیه برای مدیریت منابع)مانند کاهش تعداد مهاجرت در ادغام پویای ماشین مجازی(باشد. از این رو در این مقاله از ترکیب شبکه عصبی پیچشی و واحد برگشتی دروازهدار بهمنظور پیشبینی بار کاری ماشینهای مجازی مایکروسافت آزور استفادهشده است. مجموعه داده آزور یک مجموعه داده دارای برچسب است و بار کاری ماشینهای مجازی در این مجموعه داده در دو برچسب حساس یا غیر حساس به تاخیر قرار دارند. در این مجموعه داده اکثر ماشینهای مجازی دارای برچسب غیر حساس به تاخیر میباشند؛ بنابراین بنابراین توزیع نمونه ها در این مجموعه داده به صورت نامتوازن است از ین رو برای رفع این چالش از افزایش تصادفی نمونه های کلاس اقلیت استفاده شده است. طبق نتایج حاصل از آزمایشها، روش پیشنهادی دارای دقت 42 / 94 است که نشاندهنده برتری مدل پیشنهادی نسبت به سایر مدلهای پیشین است.

    کلیدواژگان: پیشبینی بار کاری، مراکز داده ابری، انتخاب ماشین مجازی، شبکه عصبی پیچشی، واحد برگشتی دروازهدار
  • نورالدین طراز منفرد، علی شایان *، علی رجب زاده قطری صفحات 191-207

    صنعت حمل ریلی بار در ایران با چالش هایی روبروست که عملکرد آن را تحت تاثیر قرار داده است؛ به گونه ای که هر سال سهم بیشتری از حمل بار به نفع حمل جاده ای از دست میرود. یکی از راهکارهای مدیریت این چالش ها در سایر کشورها، پیاده- سازی اینترنت اشیاء است که در ایران تاکنون کاربردهای محدودی داشته و پژوهشی نیز درباره اثرات پیاده سازی این فناوری بر عملکرد حمل ریلی بار در کشور یافت نشد. در پژوهش حاضر پس از مرور مبانی نظری و پیشینه و روش تحقیق، مولفه های مرتبط، شناسایی و دسته بندی و تناسب آنها برای سنجش اثر پیاده سازی اینترنت اشیاء بررسی و نتایج در قالب کارت امتیازی- متوازن مدلسازی شده است. جهت گردآوری دانش خبرگان از روش دلفی و برای انتخاب نمونه ای متشکل از بیست نفر از - تکنیک گلوله برفی استفاده شد. در تحلیل یافته ها از آزمون های دامنه بین چارکی، دو جمله ای، میانگین و سایرآزمون های متداول ستفاده شد. مولفه های شناسایی شده به درجات متفاوت، بر ابعاد مختلف کارت امتیازی متوازن اثر گذارند.کمترین میزان اثرگذاری اینترنت اشیاء به بعد مالی و بیشترین میزان آن به بعد فرایندهای ارزش آفرین اختصاص دارند. همچنین اثرگذاری اینترنت اشیاء بر مولفه های بهبود فرایندها، سیاست گذاری و رقابت پذیری از بالاترین اجماع خبرگان و اثرگذاری آنبر مولفه های نیروی انسانی و مخاطرات فنی از کمترین اجماع خبرگان برخوردار هستند. نتایج پژوهش در برنامه ریزی استراتژیک صنعت حمل ریلی بار با به کارگیری عملی دستاوردهای فناوری اطلاعات قابل استفاده است.

    کلیدواژگان: سیستم هوشمند حمل و نقل، اینترنت اشیاء ریلی، قطار هوشمند، اینترنت اشیاء صنعتی، کارت امتیازی متوازن
  • سعید پورمیرزایی *، حمیدرضا احمدزاده، مسعود شفیعی صفحات 207-222

    در این مقاله برای نخستین بار، مسیله ی تخمین عیب حسگر و طراحی یک سیستم کنترل تحمل پذیر عیب توزیع شده به منظور اجماع رهبر پیرو در سیستم های چندعالم ی سینگولار همگن مورد بررسی قرار میگیرد. ابتدا، یک مدل الحاقی برای سیستم مورد مطالعه پیشنهاد می شود. نشان داده شده است که مدل الحاقی پیشنهاد شده در این مقاله بر خلاف برخی کارهای تحقیقاتی مشابه منظم و بدون ضربه است . بر اساس این مدل، متغیرهای حالت سیستم و عیب حسگر با طراحی یک رویتگر سینگولار توزیع شده به صورت همزمان تخمین زده می شوند. رویتگر پیشنهاد شده قابلیت تخمین عیب های متغیر با زمان را نیز دارا می باشد . سپس، یک کنترل کننده ی توزیع شده به منظور اجماع رهبر پیرو با استفاده از تخمین حالت های سیستم و تخمین عیب حسگر انجام شده؛ طراحی می شود . شروط کافی برای پایداری دینامیک خطای تخمین حالت و دینامیک خطای عدم توافق بر حسب ترم های نامساوی ماتریسی خطی بدست می آید و با حل آنها، ماتریس های بهره رویتگر و کنترل کننده بدست می آیند. همه نامساوی های خطی ماتریسی موجود MATLAB در مقاله با استفاده از نرم افزار حل شده است. در نهایت، صحت سنجی و کارایی سیستم کنترل پیشنهادی به منظور اجماع رهبر پیرو سیستم های چندعاملی سینگولار در معرض عیب حسگر با استفاده از شبیه سازی رایانه ای نشان داده می شود. نتایج شبیه سازی نشان می دهد که استراتژی کنترل پیشنهادی در مقابله با اثر عیب سنسور در سیستم های سینگولار چندعاملی کارا می باش .

    کلیدواژگان: سیستم های چندعاملی، سیستم های سینگولار، تخمین عیب حسگر، کنترل کننده تحمل پذیرعیب توزیع شده
  • مهدی فردی نیا، فاطمه ثقفی *، جلال حقیقت منفرد صفحات 223-241

    صنعت فاوا جزو صنایع پیچیده و دارای فناوریهای برتراست. رشد پایدار شرکت ها در این صنعت با تجاریسازی موفق تضمین میشود که با توجه به پیچیدگی حوزه، مشارکت دانشی بین شرکت ها ضروری است. بررسی دقیق ادبیات نشان داد الگویی برای چگونگی موفقیت در تجاری سازی و ارتباط آن با مشارکت بین سازمانی در بخش فاوا وجود ندارد. لذا این موضوع به عنوان هدف تحقیق تعیین شد. با مرورپیشینه تحقیق؛ عوامل اثرگذار بر موفقیت تجاریسازی مبتنی بر مشارکت شامل محرکهای داخلی و خارجی، مشارکت، منابع، قابلیتهای پویا، سازوکارهای اجرایی و عملکرد استخراج و در قالب یک مدل مفهومی ترسیم شد.در ادامه با مطالعه چند موردی 4 پروژه فناورانه پژوهشگاه فاوا شامل)آنتیویروس پادویش، طرح جویشگر بومی، مرکز عملیات بومی SOC ، تجهیزات ارتباطی (POTN و تحلیل مضمون، مضامین اصلی و فرعی الگو، استخراج شد. سپس با استفاده از گروه کانونی متشکل از خبرگان، نتایج، اعتبارسنجی شده و 29 مضمون)گزاره(تایید شد. ارتباط بین مولفه ها نیز در پنل خبرگان مورد تایید قرار گرفت. الگوی نهایی، ترکیبی از این عوامل است که طبق تجارب بومی کشور ایران باعث موفقیت تجاری سازی شده است و می تواند مبنای سیاستگذاری برای تولیدات دانش بنیان موفق قرار گیرد.

    کلیدواژگان: صنعت فاوا، تجاریسازی، مشارکت، تحلیل مضمون، دره مرگ
  • شایسته طباطبائی * صفحات 241-259

    فناوری اینترنت اشیا (IoT) شامل تعداد زیادی گره های حسگر است که حجم انبوهی از داده تولید می کنند. مصرف بهینه انرژی گره های حسگر یک چالش اساسی در این نوع از شبکه هاست. خوشه بندی گره های حسگر در دسته های مجزا و تبادل اطلاعات از طریق سرخوشه ها، یکی از راهکارهای بهبود مصرف انرژی است. این مقاله یک پروتکل مسیریابی مبتنی بر خوشه بندی جدید به نام 1KHCMSBA را ارایه میدهد. پروتکل پیشنهادی بطور بیولوژیکی از ویژگی های جستجوی سریع و موثر الهام گرفته بر اساس رفتار غذایابی میگوها در الگوریتم بهینه سازی گروه میگوها برای خوشه بندی گره های حسگر استفاده می کند. در پروتکل پیشنهادی همچنین از چاهک متحرک برای جلوگیری از مشکل نقطه داغ استفاده می شود. فرآیند خوشه بندی در ایستگاه پایه با یک الگوریتم کنترل متمرکز انجام می شود که از سطوح انرژی و موقعیت قرارگیری گره های حسگر آگاه است. بر خلاف سایر پروتکل های موجود در سایر تحقیقات، KHCMSBA مدل انرژی واقع بینانهای را در شبکه در نظر می گیرد که در شبیه ساز Opnet عملکرد آن مورد آزمایش قرار می گیرد و نتایج حاصل از شبیه سازی با پروتکل (Artifical Fish Swarm Routing Protocol) AFSRP مقایسه می شوند. نتایج حاصل از شبیه سازی حاکی از عملکرد بهتر روش پیشنهادی از نظر انرژی مصرفی به میزان 71 / 12 درصد، نرخ گذردهی به میزان 22 / 14 درصد، تاخیر انتها به انتها به میزان 07 / 76 درصد، نسبت سیگنال به نویز به میزان 82 / 46 درصد نسبت به پروتکل AFSRP است.

    کلیدواژگان: شبکه حسگر بیسیم، الگوریتم بهینهسازی میگوها، خوشهبندی، چاهک متحرک، پروتکل AFSRP، استاندارد IEEE802.15.4
  • حامد میرشک، امیر البدوی *، مهرداد کارگری، محمدعلی رستگار، محمد طالبی صفحات 258-273

    یکی از م شکلات اساسی بانکه ای ایرانی نبود فرآیند مدیریت ریسک با رویکردی آینده نگر است. از مهمترین این ریسک ها در بانک، می توان به ریسک نقدینگی اشاره کرد ؛ بنابراین پیشبینی ریسک نقدینگی به موضوع ی مهم برای بانک ها تبدیل شده است. روش های مرسوم اندازه گیری ریسک نقدینگی پیچیده، زمانبر و پرهزینه هستند که پیشبینی آن را نیز غیر قابل دسترس نموده است. پیشبینی ریسک نقدینگی در زمان مناسب می تواند از بروز مشکلات یا بحران های جدی در بانک جلوگیری نماید. در این مطالعه سعی شده است تا راه حلی نوآورانه برای پیشبینی ریسک نقدینگی بانک و سناریوهای پیشرو با استفاده از رویکرد تحلیل تمایلات خبری ارایه شود . از رویکرد تحلیل تمایل اخبار پیرامون یکی از بانک های ایرانی در راستای شناسایی متغیرهای کیفی پویا و موثر در ریسک نقدینگی بهره برده شده تا روشی ساده تر و با کارایی بالاتر برای پیشبینی روند ریسک نقدینگی ارایه نماید. روش پیشنهادی سناریوهای عملی را برای تصمیم گیرندگان ریسک بانکی در دنیای واقعی فراهم می کند. سناریوهای ریسک نقدینگی به دست آمده در مقای سه با سناریوهای رخ داده در بانک طبق دستورالعمل کمیته بازل و نظر کار شناسان بانکی ارزیابی می شوند تا از صحت پیشبینی ها و همسویی آن اطمینان حاصل شود. نتیجه ارزیابی سناریوهای مورد مطالعه به صورت دورهای حاکی از دقت نسبتا بالا است. معیار دقت 1 پیشبینی در سناریوهای محتمل استاراش شده از کمیته بازل، 95.5 % و در سناریوهای برگرفته از نظرات خبرگان، 75 % است.

    کلیدواژگان: پیشبینی ریسک نقدینگی، یادگیری ماشین، تحلیل تمایل، تحلیل سناریو، روش شناسی علم طراحی
  • سیده مطهره حسینی *، محمد اقدسی صفحات 277-299

    تصمیمات درست و به موقع تاثیر بسزایی در عملکرد و دستیابی شرکت به اهداف خود دارد. به بیانی دیگر مدیریت فرایندهای کسب و کار، به اتخاذ و اجرای تصمیمات منطقی وابسته است. با افزایش یکپارچه یازی سیستم های اطلاعاتی در سازمان ها و با استفاده ابزارهایی مانند فرایندکاوی، بستری جهت استفاده از رویکردهای جدید تحلیل داده و تحلیل بهتر تصمیات فراهم شده و مدیران می توانند در تصمیم گیری ها به صورت چالاک عمل نمایند. انتخاب تامین کننده در فرایند خرید در پروژه های پیچیده، یکی از تصمیمات اثر گذار در کیفیت هزینه و عملکرد پروژه است. در این مقاله با دیدگاه فرایندی، نقاط تصمیم در فرایند خرید در یک پروژه ساخت پیچیده در یک شرکت EPC کشف و با تحلیل شبکه اجتماعی بازیگران کلیدی در اجرای فرایند شناسایی و بررسی شده است. نتایج حاصل از این تحقیق به بررسی جایگاه نقاط تصمیم در جریان فرایندی، عملکرد نقاط تصمیم و نیز شناسایی افراد کلیدی در اتخاذ تصمیمات منجر شده که می تواند در بهبود عملکرد آتی شرکت مورد استفاده قرار گیرد.

    کلیدواژگان: فرایندکاوی، تحلید تصمیم، مدیریت فرایندهای کس وکار، تجزیه و تحلید شبکه اجتماعی، فرایند تامین، شرکتهای EPC
  • فرهنگ پدیداران مقدم *، مهشید صادقی باجگیران صفحات 299-310

    در حملات فیشینگ یک وبگاه جعلی از روی وبگاه اصلی جعل میگردد که ظاهر بسیار شبیه به وبگاه اصلی دارد. فیشر یا سارق آنلاین برای هدایت کاربران به این وبگاه ها، معمولا لینک های جعلی را در ایمیل قرار داده و برای قربانیان خود ارسال نموده و با روش های مهندسی اجتماعی سعی در فریب کاربران و مجاب نمودن آنها برای کلیک روی لینکهای جعلی دارد. حملات فیشینگ زیان مالی قابل توجهای دارند و بیشتر روی بانکها و درگاه های مالی متمرکز هستند. روش های یادگیری ماشین یک روش موثر برای تشخیص حملات فیشینگ است اما این مشروط به انتخاب بهینه ویژگی است. انتخاب ویژگی باعث میشود فقط ویژگیهای مهم به عنوان ورودی یادگیری در نظر گرفته شوند و خطای تشخیص حملات فیشینگ کاهش داده شود. در روش پیشنهادی برای کاهش دادن خطای تشخیص حملات فیشینگ یک طبقهبندی کننده شبکه عصبی مصنوعی چند لایه استفاده شده که فاز انتخاب ویژگی آن با الگوریتم بهینهسازی شیرمورچه انجام میشود. ارزیابی و آزمایشها روی مجموعه داده Rami که مرتبط با فیشینگ است نشان میدهد روش پیشنهادی دارای دقتی در حدود 98.53 % است و نسبت به شبکه عصبی مصنوعی چند لایه خطای کمتری دارد. روش پیشنهادی در تشخیص حملات فیشینگ از روش های یادگیری BPNN ، SVM ، NB ، C4.5 ، RF و kNN با سازوکار انتخاب ویژگی توسط الگوریتم PSO دقت بیشتری دارد.

    کلیدواژگان: حملات فیشینگ، انتخاب ویژگی، الگوریتم بهینه سازی شیر مورچه، صفحات جعلی، لینکهای جعلی
  • علیرضا اسماعیلی، علیرضا اصغریان، تکاوش بحرینی، نسرین دسترنج *، مهشید غفارزادگان، کلثوم عباسی شاهکوه، ماندانا فرزانه، حمیرا مقدمی صفحات 311-328

    هدف این مطالعه، شناسایی راهبردهای نوآوری موثر برای یک شرکت دولتی و ماموریت محور در حوزه ارتباطات و فناوری اطلاعات است. ویژگی های شرکت مورد مطالعه عبارتند از: دولتیبودن، برخورداری از بازار انحصاری، اقدامات پراکنده در حوزه نوآوری، برخورداری از مدیران علاقه مند به نوآوری سازمانی و دارای راهبرد و ساختار مشخص و بهروز. در این مقاله با مطالعه شرکت های بین المللی مشابه، راهبردهای دمرسوم نوآوری جمع آوری شد. سپس با استفاده از روش تجزیه و تحلیل تماتیک بر روی داده های حاصل از مصاحبه های نیمه ساختاریافته در شرکت ارتباطات زیرساخت، قوت ها و ضعف های مرتبط با موضوع نوآوری شرکت، شناسایی شدند. با مطابقت این دو دسته اطلاعات، تعدادی از راهبردهای مناسب برای این شرکت پیشنهاد شده و ملاحظات اجرایی سازی آنها نیز بر اساس ویژگی های خاص این شرکت، بیان شده است. بر همین اساس پیشنهادهایی برای پژوهش های آتی این شرکت ارایه شده است تا با استفاده از آنها، روش های مناسب اجرا و پیاده سازی نوآوری سازمانی را در شرایط مشابه شناسایی کند.

    کلیدواژگان: نوآوری سازمانی، راهبردهای نوآوری، مدیریت نوآوری، الزامات نوآوری، شرکت ارتباطات زیرساخت
  • علی یوسفی، کامبیز بدیع *، محمدمهدی عبادزاده، آرش شریفی صفحات 330-347

    امروزه، سیستم های طبقه بندی کننده یادگیر درکاربردهای متنوع در رباتیک مانند ربات های حسی، رباتهای انساننما، سامانه های امداد و جات هوشمند وکنترل ربان های فیزیکی در محیط های گسسته و پیوسته، مورد توجه قرار گرفته است. معمولا از ترکیب یک الگوریتم تکاملی یا روش های شهودی با یک فرایند یادگیری برای جستجو در فضای قوانین موجود در انتساب کنش مناسب یک دسته بند استفاده می شود. چالش مهم برای بالا بردن سرعت و دقت در رسیدن به هدف در مسایل هزار تو، بکارگیری و انتخاب کنشی است که محرک بجای برخورد تکراری به موانع اطراف، در مسیر درست قرار گیرد. بدین منظور در این مقاله یک الگوریتم طبقه بندی کننده یادگیر هوشمند سیستم های طبقه بند یادگیر مبتنی بر دقت(XCS) مبتنی بر حافظه محدود بکار گرفته شده است که با توجه به ورودی و کنش های اعمال شده به محیط و عکس العمل محرک، قوانین بهینه شناسایی شده و در اولویت انتخاب با احتمال بیشتری در مراحل بعدی، به عنوان مجموعه دستهبند جدید به الگوریتم سیستم های طبقه بند یادگیر مبتنی بر دقت (XCS) اضافه گردد. از جمله دستاوردهای این روش می توان به کاهش تعداد مراحل لازم و افزایش سرعت در رسیدن محرک به هدف در مقایسه با الگوریتم سیستم های طبقه بند یادگیر مبتنی بر دقت (XCS) پایه داشت .

    کلیدواژگان: سیستم های طبقه بند یادگیر، الگوریتم XCS، حافظه ی محدود، مسایل هزارتو
|
  • Mohammadreza Shams *, Ahmad Baraani, Mahdi Hashemi Pages 1-14

    With the advancement of technology, analyzing and assessing user opinions, as well as determining the user's attitude toward various aspects, have become a challenging and crucial issue. Opinion mining is the process of recognizing people’s attitudes from textual comments at three different levels: document-level, sentence-level, and aspect-level. Aspect-based Opinion mining analyzes people’s viewpoints on various aspects of a subject. The most important subtask of aspect-based opinion mining is aspect extraction, which is addressed in this paper. Most previous methods suggest a solution that requires labeled data or extensive language resources to extract aspects from the corpus, which can be time consuming and costly to prepare. In this paper, we propose an unsupervised approach for aspect extraction that uses topic modeling and the Word2vec technique to integrate semantic information and domain knowledge based on term graph. The evaluation results show that the proposed method not only outperforms previous methods in terms of aspect extraction accuracy, but also automates all steps and thus eliminates the need for user intervention. Furthermore, because it is not reliant on language resources, it can be used in a wide range of languages.

    Keywords: Text mining, Opinion mining, Word2Vec, Aspect Extraction, Domain Knowledge, Term Graph
  • FARHAD ASGHARI ESTIAR, AMIR MOHAMMADZADEH *, Ibrahim Abbasi Pages 14-25

    This article surveys the fundamental value of digital platforms, such as Instagram and Google. Despite the commutable nature of digital technologies, it is challenging to value digital services, given that the usage is free of charge. Applying the methodology of discrete choice experiments, we estimated the value of digital free goods. For the first time in the literature, we obtained data for the willingness-to-pay and willingness-to-accept, together with socio-economic variables. The customer’s valuation of free digital services is on average, for Google, 4.9m Rial per week and Instagram, 3.27. This paper corroborates that Instagram and Google have an intrinsic value to users, despite the fact that the service of the digital platforms is free of charge. This is the beginning of the valuation of free services such as Shad, Rubika, Zarebeen, etc. in Iran, which has played a significant role in the communication industry since the beginning of the Covid-19 pandemic, and in the discussion of the national information network, the market value of the provider companies will be very important.

    Keywords: digital platform, free goods, valuation, covid-19, intangible assets
  • mahmood nematollahzadeh, ehsan arianyan *, Masoud Hayeri Khyavi, niloofar gholipoor, abdollah sepahvand Pages 26-46

    Due to the rapid growth of science and technology, their need for high performance computing is increasing everyday. So far, the majority of the world's high performance computing needs have been based on conventional silicon-based technologies, but the end of the age of silicon-based technologies is near, and this fact has led scientists to use emerging technologies such as quantum computing, bio computing, optical computing and similar technologies. Although some of these technologies are not new and the initial introduction of some of them dates back to some decades ago, but due to the attractiveness of classical silicon-based computing and the speed of development in it, have been neglected to date. However, recently, these technologies have begun to be used to build scalable high performance computers. In this paper, we introduce these technologies and how they participate in the field of high performance computing, their current and future status, and their challenges. Also, the taxonomy related to each of these technologies from the computational point of view as well as their research topics are presented, which can be utilized for future research in this field.

    Keywords: High performance computing, quantum computing, biological computing, neuromorphic computing, optical computing, nano computing, in-memory computing
  • Vahideh Sahargahi, Vahid Majidnezhad *, Saeed Taghavi Afshord, Bagher Jafari Pages 48-77

    In light of the No Free Lunch (NFL) theorem, which establishes the inherent limitations of meta-heuristic algorithms in universally efficient problem solving, the ongoing quest for enhanced diversity and efficiency prompts the introduction of novel algorithms each year. This research presents the IWOGSA meta-heuristic algorithm, a pioneering solution tailored for addressing continuous optimization challenges. IWOGSA ingeniously amalgamates principles from both the invasive weed optimization algorithm and the gravitational search algorithm, capitalizing on their synergies. The algorithm's key innovation lies in its dual-pronged sample generation strategy: a subset of samples follows a normal distribution, while others emulate the planetary motion-inspired velocities and accelerations from the gravitational search algorithm. Furthermore, a selective transfer of certain samples from distinct classes contributes to the evolution of succeeding generations. Expanding upon this foundation, a discrete variant of IWOGSA, termed DIWOGSA, emerges to tackle discrete optimization problems. The efficacy of DIWOGSA is demonstrated through its application to the intricate influence maximization problem. DIWOGSA distinguishes itself with an astute population initialization strategy and the integration of a local search operator to expedite convergence. Empirical validation encompasses a rigorous assessment of IWOGSA against established benchmark functions, composite functions, and real-world engineering structural design problems. Remarkably, the IWOGSA algorithm asserts its superiority, eclipsing both contemporary and traditional methods. This ascendancy is statistically affirmed through the utilization of the Friedman test rank, positioning IWOGSA as the premier choice. Also, DIWOGSA algorithm is evaluated by considering different networks for influence maximization problem, and it shows acceptable results in terms of influence and computational time in comparison to conventional algorithms.

    Keywords: IWOGSA, Invasive weed optimization algorithm, Gravitational search algorithm
  • Seyed Omid Azarkasb *, Seyed Hossein Khasteh, Mostafa Amiri Pages 85-103

    A logical solution to consider the overlap of clusters is assigning a set of membership degrees to each data point. Fuzzy clustering, due to its reduced partitions and decreased search space, generally incurs lower computational overhead and easily handles ambiguous, noisy, and outlier data. Thus, fuzzy clustering is considered an advanced clustering method. However, fuzzy clustering methods often struggle with non-linear data relationships. This paper proposes a method based on feasible ideas that utilizes multicore learning within the Hadoop map reduce framework to identify inseparable linear clusters in complex big data structures. The multicore learning model is capable of capturing complex relationships among data, while Hadoop enables us to interact with a logical cluster of processing and data storage nodes instead of interacting with individual operating systems and processors. In summary, the paper presents the modeling of non-linear data relationships using multicore learning, determination of appropriate values for fuzzy parameterization and feasibility, and the provision of an algorithm within the Hadoop map reduce model. The experiments were conducted on one of the commonly used datasets from the UCI Machine Learning Repository, as well as on the implemented CloudSim dataset simulator, and satisfactory results were obtained.According to published studies, the UCI Machine Learning Repository is suitable for regression and clustering purposes in analyzing large-scale datasets, while the CloudSim dataset is specifically designed for simulating cloud computing scenarios, calculating time delays, and task scheduling.

    Keywords: Big Data Clustering, Fuzzy Multicore Learning, Hadoop Map Reduce, Task Scheduling, Cloud Computing, Pattern Recognition
  • Mona Jami Pour *, Shahnaz Akbari Emami, Safora Firozeh Pages 104-123

    IT strategy is a key factor in improving the process and performance of companies in using IT. Hence, many companies have a strategic planning process, but only a few succeed in implementing strategies efficiently. Therefore, the purpose of this study is to design a process framework for implementing IT strategy; To identify the drivers, processes and consequences of implementing IT strategy in organizations. The present study is a qualitative research with a phenomenological approach and in order to collect data, open and in-depth interviews were conducted with 10 experts in the field of IT using theoretical sampling. The results of the analysis show that the inputs under the headings of IT strategy implementation include environmental requirements of business continuity, structural-system cohesion, technology-oriented human resources, IT strategic leadership, skill requirements and common values. The second aspect of the IT strategy implementation model includes the dimensions of IT program monitoring and communication, structural appropriateness, development of support policies, budgeting and resource allocation, appropriate training, and the development of supportive culture. Finally, the implications of implementing an IT strategy, including those related to finance, internal process, customer, and growth and learning, were categorized.

    Keywords: Information Technology, Strategy Implementation, Information Systems, Strategic Planning, Input-Process-Outcome Framework
  • Shamim Yousefi, Samad Najjar-Ghabel * Pages 124-140

    The use of raw radiography results in lung disease identification has not acceptable performance. Machine learning can help identify diseases more accurately. Extensive studies were performed in classical and deep learning-based disease identification, but these methods do not have acceptable accuracy and efficiency or require high learning data. In this paper, a new method is presented for automatic interstitial lung disease identification on radiography images to address these challenges. In the first step, patient information is removed from the images; the remaining pixels are standardized for more precise processing. In the second step, the reliability of the proposed method is improved by Radon transform, extra data is removed using the Top-hat filter, and the detection rate is increased by Discrete Wavelet Transform and Discrete Cosine Transform. Then, the number of final features is reduced with Locality Sensitive Discriminant Analysis. The processed images are divided into learning and test categories in the third step to create different models using learning data. Finally, the best model is selected using test data. Simulation results on the NIH dataset show that the decision tree provides the most accurate model by improving the harmonic mean of sensitivity and accuracy by up to 1.09times compared to similar approaches.

    Keywords: Locality Sensitive Discriminant Analysis, Discrete Wavelet Transform, Discrete Cosine Transform, Interstitial lung disease identification, Radiography images, Decision tree
  • Sogand Dehghan, shahriyar mohammadi *, rojiar pirmohamadiani Pages 141-164

    Social networks have become one of the most important decision-making factors in organizations due to the speed of publishing events and the large amount of information. For this reason, they are one of the most important factors in the decision-making process of information validity. The accuracy, reliability and value of the information are clarified by these networks. For this purpose, it is possible to check the validity of information with the features of these networks at the three levels of user, content and event. Checking the user level is the most reliable level in this field, because a valid user usually publishes valid content. Despite the importance of this topic and the various researches conducted in this field, important components in the process of evaluating the validity of social network information have received less attention. Hence, this research identifies, collects and examines the related components with the narrative method that it does on 30 important and original articles in this field. Usually, the articles in this field are comparable from three dimensions to the description of credit analysis approaches, content topic detection, feature selection methods. Therefore, these dimensions have been investigated and divided. In the end, an initial framework was presented focusing on evaluating the credibility of users as information sources. This article is a suitable guide for calculating the amount of credit of users in the decision-making process.

    Keywords: information validity, valid users, valid information sources, big data life cycle, organizational goals, social networks
  • Zeinab Khodaverdian, Hossein Sadr *, Mojdeh Nazari Soleimandarabi, Seyed Ahmad Edalatpanah Pages 166-189

    Cloud computing service models are growing rapidly, and inefficient use of resources in cloud data centers leads to high energy consumption and increased costs. Plans of resource allocation aiming to reduce energy consumption in cloud data centers has been conducted using live migration of Virtual Machines (VMs) and their consolidation into the small number of Physical Machines (PMs). However, the selection of the appropriate VM for migration is an important challenge. To solve this issue, VMs can be classified according to the pattern of user requests into Delay-sensitive (Interactive) or Delay-Insensitive classes, and thereafter suitable VMs can be selected for migration. This is possible by virtual machine workload prediction .In fact, workload predicting and predicting analysis is a pre-migration process of a virtual machine. In this paper, In order to classification of VMs in the Microsoft Azure cloud service, a hybrid model based on Convolution Neural Network (CNN) and Gated Recurrent Unit (GRU) is proposed. Microsoft Azure Dataset is a labeled dataset and the workload of virtual machines in this dataset are in two labeled Delay-sensitive (Interactive) or Delay-Insensitive. But the distribution of samples in this dataset is unbalanced. In fact, many samples are in the Delay-Insensitive class. Therefore, Random Over-Sampling (ROS) method is used in this paper to overcome this challenge. Based on the empirical results, the proposed model obtained an accuracy of 94.42 which clearly demonstrates the superiority of our proposed model compared to other existing models.

    Keywords: Workload Prediction, Cloud data centers, Virtual machine selection, Convolution Neural Network, Gated Recurrent Unit
  • Noureddin Taraz Monfared, Ali Shayan *, ali rajabzadeh ghotri Pages 191-207

    The rail freight industry in Iran has been faced several challenges which affected its performance. Notwithstanding that Internet of Things leverage is rapidly increasing in railway industries-as an experienced solution in other countries-, Iran’s rail freight industry has not been involved in, yet. Related research and experiment has not been identified in Iran, as well. The aim of this survey is to identify the effects of the implementation of Internet of Things in the Rail Freight Industry in Iran. To gather the data, the Delphi method was selected, and the Snowball technique was used for organizing a Panel including twenty experts. To evaluate the outcomes, IQR, Binomial tests, and Mean were calculated. Several statements were identified and there was broad consensus on most of them, which approved that their implementation affects the Iranian rail freight industry, but in different ranks. Finally, the results formed in the Balanced Scorecard’s format. The internal business process has been affected more than the other aspects by the approved statements. Eleven recognized elements are affected in different ranks, including Internal Business Process, Financial, Learning, and Growth, Customers. The Financial perspective remarked as least consensus and the Internal Business Process has received the extreme consensus. The research outcomes can be used to improve the strategic planning of the Iranian rail freight industry by applying the achievements of information technology in practice.

    Keywords: Intelligent Transport System, Rail Internet of Things, Smart, Intelligent Train, Industrial Internet of Things, Balanced Scorecard
  • Saeid Poormirzaee *, Hamidreza Ahmadzadeh, masoud Shafiee Pages 207-222

    In this paper, the problem of sensor fault estimation and designing of a distributed fault-tolerant controller is investigated to guarantee the leader-follower consensus for homogeneous singular multi-agent systems for the first time. First, a novel augmented model for the system is proposed. It is shown that the proposed model is regular and impulse-free unlike some similar research works. Based on this model, the state and sensor fault of the system are simultaneously estimated by designing a distributed singular observer. The proposed observer also has the ability to estimate time-varying sensor fault. Then, a distributed controller is designed to guarantee the leader-follower consensus using estimation of state and sensor fault. The sufficeient conditions to ensure the stability of the observer dynamic and consensus dynamic are drived in terms of linear matrix inequalities (LMIs). The gains of observer and controller are computed by solving these conditions with MATLAB software. Finally, the validation and efficiency of the proposed control system for the leader-follower consensus of singular multi-agent systems exposed to sensor faults is illustrated by computer simulations. The simulation results show that the propsed control strategy deeling to the sensor falut in the singular multi-agent systems is effective.

    Keywords: Multi-agent systems, Singular systems, Sensor fault estimation, Distributed Fault-tolerant Control
  • Mahdi Fardinia, Fatemeh saghafi *, Jalal Haghighat Monfared Pages 223-241

    The ICT industry is one of the most complex industries with superior technologies. Sustainable growth of companies in this industry is ensured by successful commercialization, which due to the complexity of the field, knowledge sharing between companies is essential. A careful review of the literature showed that there is no model for how to succeed in commercialization and its relationship with interorganizational participation in the ICT sector. Therefore, this issue was determined as the goal of the research. By reviewing the research background; Factors affecting the success of participation-based commercialization including internal and external drivers, participation, esources, dynamic capabilities, executive mechanisms and extraction performance were drawn in the form of a conceptual model. Then, by studying multy-case study, technological projects of ICT Research Institute, including (Antivirus Padvish, Native search engine project, SOC native operations center, communication equipment POTN) and content analysis, main and secondary themes of the model were extracted. Then, using a focus group consisting of experts, the results were validated and themes (propositions) were confirmed. The relationship between the components was also confirmed in the panel of experts. The final model is a combination of these factors that, according to the indigenous experiences of Iran, has led to the success of commercialization and can be the basis for policy-making for successful knowledge-based products.

    Keywords: ICT industry, Commercialization, Partnership, Content analysis, Death Valley
  • Shayesteh Tabatabaei * Pages 241-259

    Internet of Things (IoT) technology involves a large number of sensor nodes that generate large amounts of data. Optimal energy consumption of sensor nodes is a major challenge in this type of network. Clustering sensor nodes into separate categories and exchanging information through headers is one way to improve energy consumption. This paper introduces a new clustering-based routing protocol called KHCMSBA. The proposed protocol biologically uses fast and efficient search features inspired by the Krill Herd optimization algorithm based on krill feeding behavior to cluster the sensor nodes. The proposed protocol also uses a mobile well to prevent the hot spot problem. The clustering process at the base station is performed by a centralized control algorithm that is aware of the energy levels and position of the sensor nodes. Unlike protocols in other research, KHCMSBA considers a realistic energy model in the grid that is tested in the Opnet simulator and the results are compared with AFSRP (Artifical Fish Swarm Routing ProtocolThe simulation results show better performance of the proposed method in terms of energy consumption by 12.71%, throughput rate by 14.22%, end-to-end delay by 76.07%, signal-to-noise ratio by 82.82%. 46% compared to the AFSRP protocol

    Keywords: Wireless sensor network, Krill Herd optimization algorithm, clustering, mobile well, AFSRP protocol, IEEE802.15.4 standard
  • hamed mirashk, Amir albadvi *, mehrdad kargari, Mohammad Ali Rastegar Pages 258-273

    One of the main problems of Iranian banks is the lack of risk management process with a forward-looking approach, and one of the most important risks in banks is liquidity risk. Therefore, predicting liquidity risk has become an important issue for banks. Conventional methods of measuring liquidity risk are complex, time-consuming and expensive, which makes its prediction far from possible. Predicting liquidity risk at the right time can prevent serious problems or crises in the bank. In this study, it has been tried to provide an innovative solution for predicting bank liquidity risk and leading scenarios by using the approach of news sentiment analysis. The news sentiment analysis approach about one of the Iranian banks has been used in order to identify dynamic and effective qualitative factors in liquidity risk to provide a simpler and more efficient method for predicting the liquidity risk trend. The proposed method provides practical scenarios for real-world banking risk decision makers. The obtained liquidity risk scenarios are evaluated in comparison with the scenarios occurring in the bank according to the guidelines of the Basel Committee and the opinion of banking experts to ensure the correctness of the predictions and its alignment. The result of periodically evaluating the studied scenarios indicates a relatively high accuracy. The accuracy of prediction in possible scenarios derived from the Basel Committee is 95.5% and in scenarios derived from experts' opinions, 75%.

    Keywords: Liquidity risk prediction, machine learning, sentiment analysis, scenario analysis, design science rese
  • Seyedeh Motahareh Hosseini *, aghdasim aghdasim Pages 277-299

    Correct and timely decisions have a significant impact on the performance and achievement of the company's goals. In other words, business process management depends on making and implementing rational decisions. By increasing the integration of information systems in organizations and using tools such as process mining, a platform is provided for the use of data analysis approaches and better analysis of decisions, and managers can act in agile decision making. Selecting a supplier in the process of purchasing in complex projects is one of the basic and key decisions that affect the quality, cost and performance of the project. In this article, with a process perspective, the decision points in the purchasing process in a complex construction project in an EPC company have been discovered and the key players in the implementation of the process have been identified and analyzed through social network analysis. The results of this research have led to the investigation of decision points in the process, the performance of decision points and the identification of key people in decision making, which can be used to improve the company's future performance.

    Keywords: Decision analysis, Business Process Management (BPM), Social Network Analysis (SNA), Procurement process, EPC Companies
  • Farhang Padidaran Moghaddam *, Mahshid Sadeghi B. Pages 299-310

    In phishing attacks, a fake site is forged from the main site, which looks very similar to the original one. To direct users to these sites, Phishers or online thieves usually put fake links in emails and send them to their victims, and try to deceive users with social engineering methods and persuade them to click on fake links. Phishing attacks have significant financial losses, and most attacks focus on banks and financial gateways. Machine learning methods are an effective way to detect phishing attacks, but this is subject to selecting the optimal feature. Feature selection allows only important features to be considered as learning input and reduces the detection error of phishing attacks. In the proposed method, a multilayer artificial neural network classifier is used to reduce the detection error of phishing attacks, the feature selection phase is performed by the ant lion optimization (ALO) algorithm. Evaluations and experiments on the Rami dataset, which is related to phishing, show that the proposed method has an accuracy of about 98.53% and has less error than the multilayer artificial neural network. The proposed method is more accurate in detecting phishing attacks than BPNN, SVM, NB, C4.5, RF, and kNN learning methods with feature selection mechanism by PSO algorithm.

    Keywords: Phishing Attacks, Feature Selection, Ant Lion Optimization Algorithm, Fake Pages, Fake Links
  • Alireza Esmaeeli, Alireza Asgharian, Takavash Bahreini, Nasrin Dastranj *, Mahshid Ghaffarzadegan, Kolsoum Abbasi-Shahkooh, Mandana Farzaneh, Homeyra Moghadami Pages 311-328

    The purpose of this study is to identify effective innovation strategies for a governmental organization and mission-oriented in the field of communication and information technology. The characteristics of the company under study are: governmental organization, having a monopoly market, scattered actions in the field of innovation, having managers interested in organizational innovation and has a clear and up-to-date strategy and structure. In this paper, innovation strategies were collected using comparative studies of similar international companies. Then by using the method of thematic analysis on the data obtained from semi-structured interviews, the strengths and weaknesses related to the innovation were identified. By matching these two categories of information, a number of appropriate strategies have been proposed and their implementation considerations have been expressed based on the specific characteristics of this company. Accordingly, suggestions for future research of this company have been presented to identify appropriate methods of implementation of organizational innovation in similar circumstances.

    Keywords: Telecommunications Infrastructure Company, organizational innovation, innovation strategies, innovation management, innovation requirements
  • Ali Yousefi, kambiz badie *, mohamad mehdi ebadzade, Arash Sharifi Pages 330-347

    Nowadays, learning classifier systems have received attention in various applications in robotics, such as sensory robots, humanoid robots, intelligent rescue and rescue systems, and control of physical robots in discrete and continuous environments. Usually, the combination of an evolutionary algorithm or intuitive methods with a learning process is used to search the space of existing rules in assigning the appropriate action of a category. The important challenge to increase the speed and accuracy in reaching the goal in the maze problems is to use and choose the action that the stimulus is placed on the right path instead of repeatedly hitting the surrounding obstacles. For this purpose, in this article, an intelligent learning classifier algorithm of accuracy-based learning classifier systems (XCS) based on limited memory is used, which according to the input and actions applied to the environment and the reaction of the stimulus, the rules It is optimally identified and added as a new classifier set to the accuracy-based learning classifier systems (XCS) algorithm in the next steps. Among the achievements of this method, it can be based on reducing the number of necessary steps and increasing the speed of reaching the stimulus to the target compared to the accuracy-based learning classifier systems (XCS) algorithm.

    Keywords: Learning classifier systems, XCS algorithm, limited memory, maze problems