فهرست مطالب

پژوهشنامه پردازش و مدیریت اطلاعات
سال سی و نهم شماره 2 (پیاپی 116، زمستان 1402)

  • تاریخ انتشار: 1402/10/01
  • تعداد عناوین: 12
|
  • حسن یگانه*، اعظم سادات مرتضوی کهنگی، آنیتا هادیزاده صفحات 395-424
    راه اندازی زیست بوم شبکه ملی اطلاعات برای پاسخ گویی به چالش های فضای مجازی، به عنوان راه کار اصلی مطرح شده است. امروزه کشورها برای حاکمیت در فضای مجازی و رفع چالش های آن به ویژه در زمینه های امنیتی و حقوقی اقدام به راه اندازی شبکه ملی اطلاعات و ارایه خدمات بر روی این بستر کرده اند. با توجه به گستردگی تعریف و ماموریتهای شبکه ملی اطلاعات، ماموریت نهاد یا نهادهای رگولاتور، ایجاد تعادل و توازن در زیست بوم آن، می باشد. تعیین اقدامات کلان تنظیم گری شبکه ملی اطلاعات، موضوعی است که برای محقق شدن اهداف شبکه ملی اطلاعات، اهمیت بسیاری داشته و نیازمند بررسی اسناد بالادستی است. بررسی اسناد بالادستی در این پژوهش، با استفاده از روش اسنادی صورت گرفته و سپس از طریق مصاحبه گروهی با خبرگان، اطلاعات لازم گردآوری شده و با به کارگیری تکنیک دلفی، تحلیل داده ها، صورت پذیرفته است. درنهایت 25 اقدام کلان تنظیم گری احصا شده و 11 اقدام کلان، با اولویت اول، 10 اقدام کلان با اولویت دوم و 4 اقدام کلان با اولویت سوم تشخیص داده شد. با توجه به ابعاد گسترده شبکه ملی اطلاعات و عدم تعیین جایگاه و اقدامات کلان تنظیم گری در معماری شبکه ملی اطلاعات، در این پژوهش، اقدامات کلان تنظیم گری شبکه ملی اطلاعات براساس اسناد بالادستی، نگاشت اقدامات کلان با معماری شبکه ملی اطلاعات و اولویت بندی اقدامات کلان تنظیم گری جهت تحقق اهداف کلان شبکه ملی اطلاعات، شناسایی، تحلیل و تبیین، گردیده است.
    کلیدواژگان: شبکه ملی اطلاعات، تنظیم گری، اقدامات کلان تنظیم گری، فضای مجازی
  • هاتف رسولی، محمد حسن زاده*، سمانه رحیمیان صفحات 425-452
    فضای سایبر، جامعه ای است که در بستر فناوری اطلاعات و ارتباطات شکل گرفته است. این فضا دارای مرزهای سرزمینی نیست و در ظاهر توسط قدرت واحدی اداره نمی شود. در این فضا میلیاردها نفر در سراسر جهان به هم مرتبط می شوند و این امر حکمرانی سلسله مراتبی دولت ها-ملت ها را تهدید می کند. توانایی شبکه های رایانه ای برای فراتر رفتن از مفهوم مدرن زمان و مکان، عواقب قابل توجهی برای حکومت داری بر اساس روابط دولت -ملت دارد. به دلیل کمبود فزاینده کنترل ارتباطات در فضای سایبر، روش های سنتی حکومت کردن در حال سست شدن هستند. از این رو مسایلی مانند الگوی حکمرانی فضای سایبر و اعمال حاکمیت، مرزبانی سایبری، نظارت، کنترل، حفظ حریم خصوصی، معماری ساختار جامعه مجازی متناسب با جامعه بومی و... مطرح می گردد. به این ترتیب، حاکمیت فضای سایبر به منظور واکاوی ماهیت تغییراتی که توسط فناوری های اطلاعات و ارتباطات جدید مطرح شده است.همچنین با توجه به نیاز روز افزون انسانها به فضای مجازی، حاکمیت فضای سایبر به بخش مهمی از حاکمیت فضای واقعی ملی تبدیل گردیده است. بنابراین وجود حاکمیت در فضای سایبری امری ضروری و حایز اهمیت است. براین اساس پژوهش فوق با هدف ارایه الگوی آنتولوژی حاکمیت فضای سایبر انجام گرفته است، تا براین اساس تعریفی جامع تر وکامل تر از حاکمیت فضای سایبر تبیین نماید.در این پژوهش که یک پژوهش کیفی است، با توجه به تعاریف و دیدگاه های مختلف در حیطه حاکمیت فضای سایبر، تلاش گردید ضمن بررسی مبانی نظری حاکمیت فضای سایبر از طریق منابع و اسناد به روز و معتبر و تحلیل آنها از طریق روش تحلیل مضمون، مولفه ها و مضامین حایز اهمیت از حاکمیت فضای سایبر شناسایی گردید. براساس مولفه ها و مضامین به دست آمده، آنتولوژی حاکمیت فضای سایبری استخراج شد. در نهایت با سازماندهی موجودیت های مرتبط با حاکمیت فضای سایبر از طریق استخراج آنتولوژی آن، تعریفی جامع تر از حاکمیت فضای سایبر ارایه گردید. در این تعریف 17 مولفه مرتبط با حاکمیت فضای سایبر معرفی گردیده که موجودیت های الگوی اصلی آنتولوژی حاکمیت فضای سایبر را تشکیل می دهند ،همچنین هر کدام از این 17 مولفه ها خود دارای زیر مولفه هایی می باشند. آنتولوژی استخراج شده روابط و اعضا حاکمیت فضای سایبر به صورت دقیق نشان می دهد. می توان اذعان داشت تعریف بیان شده از کاملترین تعاریفی است که تاکنون در مورد حاکمیت فضای سایبر ارایه شده است.
    کلیدواژگان: آنتولوژی، حاکمیت، فضای سایبر
  • تورج قهرمانی*، فرهاد فرنیا صفحات 453-476

    وقتی صحبت از امنیت اطلاعات (IS) می شود، رفتار انسان عاملی است که نباید آن را دست کم گرفت. برنامه های آگاهی از امنیت اطلاعات (ISA) به عنوان یک اقدام پیشگیرانه وضع شده اند؛ اما موارد نقض امنیت اطلاعات همچنان وجود دارد و بانک ها دارای اطلاعات شخصی و مالی ارزشمندی هستند که آن ها را به هدف مجرمان سایبری تبدیل می کند. بر این اساس، هدف پژوهش حاضر بررسی تاثیر بی تفاوتی اخلاقی و فرهنگ سازمانی بر رفتارهای مرتبط با آگاهی از امنیت اطلاعات با درنظر گرفتن نقش میانجی متغیرهای شناختی- احساسی ISA (دانش و نگرش) و فرهنگ امنیتی سازمان است. پژوهش حاضر ازلحاظ هدف کاربردی محسوب می شود و از نظر نحوه گرداوری داده‎ها، توصیفی و از نوع همبستگی بوده و بر مدل معادله های ساختاری مبتنی است. جامعه آماری پژوهش، کارکنان شعب بانک‎های ملت و صادرات در شهر تهران بودند؛ در این راستا حجم نمونه 430 نفر برآورد گردید. در این مطالعه برای تحلیل داده ها از روش تحلیل توصیفی با نرم افزار SPSS و رویکرد حداقل مربعات جزیی (PLS) با نرم افزار Smart PLS استفاده شده است؛ چراکه استفاده از رویکرد حداقل مربعات جزیی به عنوان روش ارزیابی روابط بین متغیرهای مرتبط با رفتار انسان در حوزه امنیت اطلاعات، متداول ترین رویکرد در مطالعات کمی بوده است. یافته‎های پژوهش، مدل را تایید نمود و نتیجه‎ی تحلیل مسیر نشان داد متغیرهای بی‎تفاوتی اخلاقی، شناختی- احساسی، فرهنگ سازمانی و فرهنگ امنیتی بر رفتارهای آگاهی از امنیت اطلاعات تاثیر مثبت و معنی‎دار دارند.

    کلیدواژگان: بی تفاوتی اخلاقی، فرهنگ سازمانی، فرهنگ امنیتی، رفتارهای آگاهی از امنیت اطلاعات، متغیرهای شناختی احساسی
  • الهام مظاهری، محمد مهرآیین*، مصطفی کاظمی، کمال الدین غیاثی شیرازی صفحات 477-502
    در طول سال های اخیر، با توسعه سریع و افزایش محبوبیت رسانه های اجتماعی، شاهد رشد گسترده ای در حجم و تنوع اخبار جعلی بوده ایم. این پدیده اثرات عمیقی بر روی افراد و جامعه دارد. راستی آزمایی روشی است که به طور گسترده ای برای مقابله با اثرات منفی انتشار اخبار جعلی استفاده می شود. اما این روش هنگام تحلیل حجم عظیم اطلاعات کارآمد نیست. بنابراین از مدل های پیشرفته یادگیری ماشین و رویکردهای مبتنی بر ویژگی برای شناسایی خودکار اخبار جعلی استفاده می شود. در عین حال، تعداد زیاد مدل ها و ناهمگونی ویژگی های مورد استفاده در ادبیات، اغلب محدودیت هایی را برای محققانی که سعی در بهبود عملکرد مدل دارند، ایجاد می کند. به همین دلیل، در مطالعه حاضر با روش مرورسیستماتیک، چارچوب جامعی از ویژگی هایی که در تشخیص اخبار جعلی استفاده می شوند ارایه شده است. به منظور انجام این مرور سیستماتیک با استفاده از راهنمای ارایه شده توسط اوکولی و اسچابرام، کلیه مطالعات انجام گرفته در حوزه اخبار جعلی با استفاده ازکلیدواژه‏های مرتبط، از پایگاه داده‎های ScienceDirect، Springer، Emerald، IEEE، ACM، Wiley، Sage، JSTOR، Taylor و WOS استخراج شد و درنهایت تعداد 72 مقاله مرتبط مورد بررسی قرار گرفته است. در نتیجه تحلیل مقالات مرتبط، ویژگی ها در دو طبقه اصلی محتوای خبر و زمینه خبر قرار گرفتند. محتوای خبر شامل ویژگی های زبانی و معنایی، ویژگی های بصری و ویژگی های مبتنی بر سبک می باشند. زمینه خبر نیز شامل ویژگی های مبتنی بر کاربر، پست و شبکه است. نتایج به دست آمده نشان داد که پرکاربردترین ویژگی ها در تشخیص اخبار جعلی ویژگی های مبتنی بر پروفایل کاربر، ویژگی های سبک آماری، الگوی نوشتاری و خوانایی هستند. با توجه به تنوع بالای ویژگی های موجود پیشنهاد می شود ارزیابی گسترده ای از ویژگی ها، مدل ها و همچنین عملکرد آنها در مجموعه داده های متعدد انجام شود و از این طریق عملکرد مدل ها و مجموعه ویژگی های مختلف مقایسه گردد تا بهترین ترکیب ویژگی در شرایط مختلف مشخص گردد.
    کلیدواژگان: اخبار جعلی، ویژگی، ویژگی های مبتنی بر محتوا، ویژگی های مبتنی بر زمینه اجتماعی، مرور سیستماتیک
  • زینب پاپی* صفحات 503-533

    پژوهش حاضر با هدف شناسایی الزامات فنی حفاظت از کپی رایت منابع اطلاعاتی در سامانه های اطلاعاتی سازمان اسناد و کتابخانه ملی ایران و سپس ارزیابی آنها انجام شده است. پژوهش حاضر از نظر هدف کاربردی است به این دلیل که شناسایی الزامات فنی می تواند به بهبود حفاظت از حقوق پدیدآورندگان در سامانه ها کمک کند. برای گردآوری داده ها از رویکرد کیفی استفاده شده و روش تحلیل اسنادی، تحلیل مضمون و فن دلفی فازی به کار رفته است. جامعه پژوهش شامل سامانه های سازمان اسناد و کتابخانه ملی ایران و تعداد 21 نفر (10 نفر در مصاحبه و 11 نفر در پنل دلفی) از متخصصان حوزه کتابخانه های دیجیتال، فناوری اطلاعات و سامانه های اطلاعاتی برای شرکت در مصاحبه و پنل دلفی هستند. سامانه های موردمطالعه عبارتند از: سامانه منابع دیجیتال، شبکه کتابخانه های کشور، شبکه مراکز اسناد کشور، بانک نشریات ایران، فهرستگان نسخ خطی، سنا (سامانه نشریات ایران)، سامانه نشریات علمی ایران. برای تحلیل داده ها از کدگذاری و مقوله بندی مفاهیم در قالب کدگذاری باز برای تحلیل اسنادی و تحلیل مضمون استفاده شد. تحلیل کیفی داده ها با روش تحلیل مضمون به صورت دستی و با استفاده از نسخه 2020 نرم افزار مکس.کیو.دی.ای انجام شد. همچنین برای تحلیل شاخص ها در روش دلفی فازی، از پیمایش توصیفی استفاده شد و محاسبات با استفاده از اکسل صورت گرفت. برای نمایش و ترسیم بهتر شاخص ها، نرم افزار Tableau نسخه 2018 به کار رفته است. یافته ها با استفاده از روش تحلیل مضمون بیانگر شناسایی 70 شاخص الزامات فنی پیشگیرانه است. این شاخص ها در اختیار 11 خبره قرار گرفت و پس از دو دور انجام پنل دلفی فازی، توافق بر روی 69 شاخص که شامل 12 مولفه بودند، صورت گرفت. در نهایت شاخص "استفاده از آدوب ریدر و سایر ابزارها" از سیاهه وارسی حذف شد. استفاده از رویکرد مثلث سازی روش شناختی تاییدی بر اعتبار پژوهش است. یافته ها نشان می دهد، در سامانه های موردبررسی، اغلب شاخص های فنی مربوط به الزامات فنی پیشگیرانه استفاده نمی شود. امنیت شبکه؛ استانداردها و چارچوب ها؛ احراز هویت؛ ابزارهای خوانش دیجیتال؛ حفاظت دیجیتال؛ سیستم های پرداخت؛ فراداده حقوقی؛ کنترل دسترسی؛ کنترل کپی؛ مجوز؛ مخزن دیجیتال و نقل و انتقال، 12 مولفه الزامات فنی پیشگیرانه را شکل داده اند. همچنین یافته های پژوهش حاکی از آن است که سامانه های دیجیتالی و کتابشناختی از نظر بهره گیری از الزامات فنی پیشگیرانه برای رعایت کپی رایت نیز در سطح ضعیفی قرار دارند. نتایج این پژوهش استفاده از الزامات فنی از جمله: ریزدانگی، تدوین سیاست کپی رایت و استفاده از فراداده حقوقی، توسعه و روزآمدنگه داشتن سامانه ها و ارتباط و تعامل با شرکت پشتیبان نرم افزار، استاندارد متس و بهره گیری از مخزن دیجیتالی را در سامانه-های مورد مطالعه به منظور حفاظت از حقوق پدیدآورندگان و ذینفعان آثار پیشنهاد می دهد.

    کلیدواژگان: کپی رایت، منابع اطلاعاتی، منابع اطلاعات دیجیتال، منابع کتابخانه ای، سامانه های سازمان اسناد و کتابخانه ملی ایران، الزامات فنی، حق مولف
  • علیرضا ثقه الاسلامی* صفحات 535-563

    منشور اخلاق پژوهش، مجموعه کدها و رهنمودهای اخلاقی است که حدود اخلاقی اجزای پژوهش را ترسیم می کند. کارکرد اصلی این منشورها و رهنمودهای اخلاقی، کمک به دانشجویان، استادان و پژوهشگران و هییت های اخلاق پژوهش برای تحقق اخلاقی طرح ها و فعالیت های پژوهشی و همچنین کمک به فرآیند ارزیابی و انتخاب های اخلاقی مقتضی با چالش های اخلاقی بالفعل و بالقوه در تمامی مراحل پژوهش است. مسیله اصلی این طرح پژوهشی چگونگی تدوین و توسعه منشورهای اخلاق در پژوهش است. از این رو، ابتدا به بررسی ماهیت و کارکرد منشورهای اخلاق در پژوهش پرداخته شد و در ادامه با گردآوری 36 معیار، چارچوب هنجارینی برای تدوین و توسعه منشورهای اخلاق پژوهش پیشنهاد و ارایه گردید. این معیارها از سه منظر طراحی و تدوین (با 20 معیار)، اجرا و نظارت (با 9 معیار)، و آموزش و ترویج (با 7 معیار) به چگونگی توسعه و اجرای منشورهای اخلاق در پژوهش می پردازند. در پایان، مطابق با این چارچوب هنجارین و معیارهای 36 گانه، از سه منظر مذکور، «منشور و موازین اخلاق پژوهش وزارت عتف (1390)» بررسی و نقد شد. این پژوهش در دو گام تحقق یافته است: در گام اول، از طریق روش کتابخانه ای به بررسی ماهیت و کارکرد منشورها و کدهای اخلاق پژوهش و هم چنین مطالعه متون و منابع متعدد برای شناسایی معیارهای موثر در تدوین و توسعه منشورهای اخلاق در پژوهش پرداخته شد. سپس، چارچوب هنجارینی برای تدوین و توسعه منشورهای اخلاق در پژوهش پیشنهاد گردید. این چارچوب توسط گروهی کانونی از متخصصان این حوزه، نظرسنجی، اعتباریابی و نهایی شد. در گام دوم، منشور و موازین اخلاق پژوهش وزارت عتف به عنوان تنها منشور رسمی اخلاق در پژوهش که اجرای آن به دانشگاه ها و موسسه های پژوهشی آن وزارتخانه ابلاغ شده است، مطابق با معیارها و چارچوب هنجارین به دست آمده در گام اول نقد و بررسی شد. بر این اساس، دستاوردهای نهایی این طرح پژوهشی عبارت است از: 1) معرفی و پیشنهاد چارچوبی هنجارین برای تدوین کدهای اخلاق در پژوهش، و 2) ارزیابی و بررسی نقادانه منشور و موازین اخلاق پژوهش وزارت عتف و پیشنهادهایی برای بازنگری صوری و محتوایی در تهیه و تدوین آن.

    کلیدواژگان: اخلاق در پژوهش، چارچوب هنجارین، کدنامه اخلاقی، منشور اخلاق پژوهش
  • مرتضی محمدی استانی، محمد کریمی، علی میرعرب* صفحات 565-598

    روش های مختلفی برای تجمیع، تلفیق و ادغام اطلاعات به عنوان فرایندی حیاتی در سیستم های مدیریت اطلاعات وجود دارد، اما رویکرد و الگوی مشخصی در حوزه سیستم های مدیریت اطلاعات مبتنی بر روابط (اصطلاحنامه ای) ارایه نشده است. هدف پژوهش حاضر تبیین مفهوم و مدل های مناسب ادغام اطلاعات و کاربست آن در سیستم های مدیریت اطلاعات مبتنی بر رابطه (اصطلاح نامه ای) است. پژوهش حاضر از نوع مفهومی با رویکرد تحلیلی است. جامعه پژوهش، متون و بروندادهای حوزه ادغام اطلاعات در پایگاه های اطلاعاتی مختلف بود. روش گردآوری داده ها، کتابخانه ای بود که به صورت هدفمند انتخاب گردید. یافته ها نشان داد ادغام، تلفیق و ترکیب اطلاعات در سیستم های مدیریت اطلاعات اصطلاحنامه ای، نتایج و تاثیرات متفاوتی را ایجاد می کند. مدل های ادغام اطلاعات در چهار دسته کلی مدل های مبتنی بر گردش اطلاعات، گردش کار و فعالیت، نقش ها و عملکرد موجودیت ها، و درک مفاهیم قرار دارند. مدل گردش کار و فعالیت Omnibus و مدل مبتنی بر نقش ها و عملکرد موجودیت Endsley's به عنوان مدل های انتخابی با توجه به مدل پایه JDL جهت بکارگیری در سیستم های مدیریت اطلاعات مبتنی بر روابط نظیر اصطلاحنامه ها و هستی شناسی ها مناسب است و این قابلیت را دارند که با برخی تغییرات استفاده شوند. عیب اصلی مدل های ادغام اطلاعات، عدم توجه به ویژگی های ساختارهای اطلاعاتی مشخص نظیر اصطلاح نامه ها است. کم توجهی به کاربران خبره در سیستم های اطلاعاتی مبتنی بر تصمیمات کاربری که وظیفه استخراج اطلاعات تخصصی را دارند و نادیده گرفتن سیستم مشارکت جمعی برای حل مسایل پیچیده از جمله تشابه یابی و رفع آن در حجم انبوه اطلاعاتی، عدم شرح ریز عملکردهای مورد نیاز برای حل مسایل، مدیریت تاثیرات در صورت بروز اشتباهات سیستمی یا کاربری و بازگردانی اطلاعات تجمیعی و تلفیق و همچنین عدم اجرای روش ها با نمونه های عملیاتی در چنین ساختارهایی را می توان از جمله این مشکلات برشمرد. به طور کلی باید در هر مدل ادغام اطلاعات در سیستم های مدیریت اطلاعات اصطلاحنامه ای، فرایندهای کلی تشابه یابی، بررسی تشابهات، تجمیع پارامترها و ادغام اطلاعات و مدیریت تاثیرپذیری زیرسیستم ها مورد توجه قرار گیرد. برخلاف روش های سنتی ادغام اطلاعات که بیشتر بر ترکیب داده ها تمرکز دارند، ادغام اطلاعات معنایی به جای ترکیب داده ها و اطلاعات، بر ترکیب دانش های مرتبط و مفاهیم ذخیره شده در اصطلاحنامه ها تاکید دارد. از این رو، توجه به رویکردهای معنایی در فرایند ترکیب و ادغام مدل های جدید پیشنهاد می گردد.

    کلیدواژگان: ادغام داده، ادغام اطلاعات، مدل های ادغام اطلاعات، سیستم های مدیریت اطلاعات، اصطلاحنامه
  • آزاده محبی*، آزاده فخرزاده، مرضیه زرین بال صفحات 599-626
    استخراج کلیدواژه یکی از مهمترین قدم های فرآیند نمایه سازی مستندات است. کلیدواژه ها توصیفگرهای مفهومی هستند که می توانند در جستجو و بازیابی اطلاعات و نیز اشاعه آنها بکارگرفته شوند. در پایگاه های دربردارنده اسناد علمی مانند پایگاه علمی گنج پژوهشگاه علوم و فناوری اطلاعات ایران، کلیدواژه ها نقش مهمتری دارند و تخصیص کلیدواژه های تخصصی چالش برانگیزتر است چرا که این پایگاه ها دربرگیرنده اسناد تخصصی با حوزه های علمی مختلفی هستند. فرآیند نمایه-سازی دستی بسیار زمان بر است و با توجه به افزایش حجم تولید و ثبت مستندات علمی، نیاز است که این فرایند با سرعت بیشتری صورت گیرد. لذا استفاده از روش های ماشینی هوشمند برای پیشنهاد و تخصیص کلیدواژه ضروری است. تحلیل آماری و معنایی اسناد و استفاده از روش های یادگیری ماشین از جمله روش های پرکاربرد در بسیاری از پایگاه های اطلاعات علمی دنیا است. بر همین اساس، در این پژوهش روشی برای پیشنهاد کلیدواژه به مستندات علمی فارسی بر مبنای روش های هوشمند پردازش متن و یادگیری ماشین ارایه شده است. این روش بر مبنای سیستم های پیشنهاددهنده و استدلال نمونه محور است که براساس آن، مجموعه ای از کلیدواژه های مرتبط با یک سند به نمایه ساز پیشنهاد می شود تا او سریعتر بتواند کلیدواژه های مناسب را انتخاب کند. به بیانی دیگر، ابتدا اسناد مشابه با سند جدید براساس روش های TFIDFو روش های بازنمایی کلمه-به-بردار، بازیابی شده و سپس کلیدواژه های کاندید از بین اسناد مشابه براساس یک تابع رتبه بندی انتخاب می شوند. روش پیشنهادی بر مجموعه ای از اسناد پایگاه گنج در سه حوزه فنی و مهندسی، هنر و ادبیات، و علوم انسانی، پیاده سازی و نتایج آن با معیارهایی نظیر دقت، فراخوانی و نظرات متخصصین ارزیابی شده است.
    کلیدواژگان: سیستم های پیشنهاددهنده، استدلال نمونه محور، روش بازنمایی کلمه-به-بردار، بازیابی اطلاعات، یادگیری ماشین، نمایه سازی
  • سهیلا کرباسی*، موژان صفائی نژاد صفحات 627-655
    در این پژوهش مدل های داده محبوبترین شبکه های اجتماعی به همراه مزایا و معایب مربوط به آنها و همچنین مواردی که برای ذخیره سازی و بازیابی داده های شبکه های اجتماعی مهم و حایز اهمیت هستند بررسی و ارایه شده است. کاربردهای شبکه های اجتماعی در چند سال گذشته رشد چشمگیری داشته اند که نتیجه این رشد، تولید حجم زیادی داده می باشد. از طرفی ذخیره سازی و تجزیه و تحلیل داده های شبکه های اجتماعی برای انواع کسب و کارهای امروزه به طور موثر ضروری می باشند. انواع روش های ذخیره سازی رایج بر اساس مدل داده رابطه ای برای حجم بالای اطلاعات مقیاس پذیر نبوده و بنابراین بهینه و کارآمد نمی باشند. در نتیجه استفاده از روش های ذخیره سازی مبتنی بر مدل های غیررابطه ای به همراه مدل رابطه ای بسیار مرسوم شده اند. در این تحقیق، مجموعه داده حجیمی از داده های شبکه اجتماعی توییتر که شامل 15811468 توییت از پست های ارسالی توسط 300000 کاربر فارسی زبان این شبکه اجتماعی می باشد در سه پایگاه داده MySQL، MongoDB وRedis ذخیره شده و عملکرد هر یک از آنها با اجرای پرس وجوهای مختلف بررسی و مقایسه شده است. علاوه بر اندازه گیری زمان صرف شده برای اجرای عملیات بر روی داده ها، میزان فضای اشغال شده توسط پایگاه های داده نیز بررسی شدند. با توجه به مزایا و محدودیت های مرتبط با ساختار هر سه پایگاه داده، از مقادیر به دست آمده می توان نتیجه گرفت که اگر داده ها دارای ساختار مشخصی هستند، پایگاه داده رابطه ای مانند MySQL انتخاب خوبی است. اگر داده ها بدون ساختار و یا ساختاریافته با پتانسیل رشد سریع باشند، مدل های NoSQL کارایی بهتری خواهند داشت. ضمن اینکه نگهداری داده ها به صورت موقت و با سرعت زیاد در پایگاه های داده کلید- مقدار مانند Redis که داده ها را در حافظه نگهداری می کنند، مناسب تر هستند. همچنین از نظر زمان اجرا، MongoDB با صرف زمان کمتری در مقایسه با MySQL و Redis پرس و جوها را اجرا می کند که این اثباتی است بر اینکه پایگاه های داده NoSQL عملکرد و مقیاس پذیری بهتری را برای اکثر عملیات در مجموعه داده های بزرگ نشان می دهند.
    کلیدواژگان: شبکه های اجتماعی، پایگاه داده، مدل داده های بزرگ، مقیاس پذیری
  • سیده زهره حسینی، رضا رادفر*، امیراشکان نصیری پور، علی رجب زاده قطری صفحات 657-697

    این مطالعه باهدف توسعه الگوریتم های هوش مصنوعی بر پایه اینترنت اشیاء انجام شده است که ضمن تشخیص و پیش بینی همه گیری در زمان واقعی با استفاده از مکان افراد، بر مراقبت و بهبود نیز تاکید می کند.بیماری هدف در این پژوهش باتوجه به اهمیت و فراگیری، کووید19 است.بر اساس نوع گردآوری داده ها از نوع پژوهش های کیفی بوده و باتوجه به توسعه الگوریتم ها، روش تحقیق در این پژوهش مبتنی بر علم طراحی است. رویکرد تحقیق آینده نگر است، به طوری که مکانیزم انتقال بیماری و ویژگی های تاثیرگذار آن ما را قادر به پیش بینی هایی در مورد بیماری و در نتیجه طرح استراتژی های کنترل بیماری و مراقبت های بهداشتی می نماید.پژوهش در یک فرایند 7 مرحله ای انجام شد. ویژگی های اینترنت اشیاء در پژوهش حاضر با نظر خبرگان استخراج شد و ویژگی های به دست آمده در آزمایش 2 الگوریتم مختلف «k نزدیک ترین همسایگی» و «درخت تصمیم» بر روی داده ها برای تعیین بهترین مدل ایجاد شد.پس از انتخاب بهترین عمق و بهترین همسایگی در الگوریتم ها، اعتبار و تصدیق مدل با تحلیل ماتریس ابهام انجام شد.نتایج اجرای الگوریتم ها برای پیش بینی بیماری کووید19، دقت بالاتر از 98 درصد را نشان دادند. حساسیت بالاتر (99 درصد) که برای تشخیص بیماری کووید19 اهمیت بالایی دارد و نشان دهنده حداقل موارد منفی کاذب در نتایج آزمون است، در الگوریتم درخت تصمیم به دست آمد.

    کلیدواژگان: اینترنت اشیاء، بیماری های واگیر، کووید19، یادگیری ماشین، هوش مصنوعی
  • هاجر ستوده*، عادله اسدی، مصطفی فخراحمد صفحات 699-727
    مقدمه

    پزشکی مبتنی بر شواهد هدف متخصصان بالینی دستیابی به اطلاعات مرتبط و معتبر برای اتخاذ تصمیم بالینی مناسب است. بنابراین، در سامانه های بازیابی اطلاعات برای پاسخگویی به نیازهای اطلاعاتی متخصصان سلامت، دسترسی به مدارک مرتبط کفایت نمی کند و اعتبار روش شناختی آنها نیز می بایستی مد نظر قرار گیرد.

    روش پژوهش

    پژوهش حاضر از روش شبه آزمایشی پیش آزمون - پس آزمون تک گروهی به منظور دست یابی به اهداف پژوهش بهره می برد. جامعه ی پژوهش را کلیه ی مقالات کارآزمایی بالینی موجود در پایگاه کاکرین تا پایان 2018 میلادی تشکیل داد.

    یافته ها

    نتایج پژوهش حاضر نشان داد در بین متغیرهای پژوهش کلمات نظر داور به همراه چکیده بیشترین تاثیر را بر رتبه بندی داشت. این نتایج نشان داد که نظر داور کاکرین می تواند ابزاری مناسب برای استفاده در سامانه های رتبه بندی بر اساس ربط و اعتبار باشد. همچنین نتایج این پژوهش نشان داد امکان رتبه بندی اعتبار روش شناختی و تلفیق آن با ربط با استفاده از عناصر درون و برون متنی مقالات وجود دارد.

    نتیجه گیری

    این پژوهش به تمایز انواع واژگان به کار رفته در متن مقالات علمی و تاثیر آن بر بهبود رتبه بندی بر پایه ربط و اعتبار روش شناختی پرداخت. در سامانه های بازیابی مبتنی بر زبان طبیعی، بیشتر بر کلیت متن تاکید بوده است و کمتر به سهم انواع واژگان در تبیین ربط مقالات توجه شده است. یافته های این پژوهش، بار دیگر، تفاوت انواع واژگان در تبیین ربط و اعتبار روش شناختی را برجسته ساخت و لزوم تعیین مجموعه واژگان هدف در انواع جستجوها را آشکار ساخت.

    کلیدواژگان: رتبه بندی، بازیابی اطلاعات، اعتبار روش شناسی، کاکرین، ربط، نظرات داوران
  • کورش نجیبی* صفحات 729-756

    مقاله پیش رو که با روش تحقیق کتابخانه ای و براساس توصیف و تحلیل به نگارش در آمده از نوع تحقیقات بنیادین و کاربردی است که با نگرش انتقادی به کتاب اصطلاحنامه فلسفه اسلامی پژوهشگاه علوم و فرهنگ اسلامی در صدد نقد و ارزیابی کیفی آن با هدف تبیین کاستی ها و برطرف کردن آن ها در ویرایش های بعدی بمنظور نیل به روزآمدی، بالندگی و پاسخگویی به نیاز کاربران متناسب با رشد روز افزون دانش فلسفه اسلامی است. ارزیابی کیفی در دو بخش شکلی و ماهوی است؛ ارزیابی شکلی شامل ارزیابی ترتیب الفبایی، رسم الخط، اعراب گذاری، فارسی یا عربی بودن اصطلاحات ؛ و ارزیابی ماهوی شامل ارزیابی مقدمه، ساختار هندسی علم و روابط معنایی پیشینی آن است. یافته های تحقیق در بخش شکلی عبارتند از بکارگیری گسترده لغات عربی ، عدم برقرای ارجاعات متقابل، عدم استفاده از لحاظ تقسیم ، عدم استفاده کافی از یادداشت دامنه ، بگارگیری غیر استاندارد توضیحگرها، عدم رعایت نظم الفبایی در بخش نمایش الفبایی اصطلاحات و وجود غلط های املایی . یافته های تحقیق در بخش ماهوی عبارتند از تبیین خلل هایی در ساختار هندسی علم فلسفه و روابط سلسله مراتبی اصطلاحات، همچنین تبیین خطا در فهم مفاهیم فلسفی و روابط معنایی پیشینی اصطلاحات که در مواردی ناشی از خطای در درک مفاهیم فلسفی و یا خلط مفاهیم و اصطلاحات خاص نظام های فلسفی اشراقی، مشایی و حکمت متعالیه است که ضرورت دارد برطرف شوند؛ زیرا این اصطلاحنامه به عنوان پایه ذخیره سازی ، جستجو و بازیابی اطلاعات از سوی مراکز علمی پذیرفته شده و در کشورهای دیگر در حال ترجمه هست. پیشنهاد تحقیق، توصیه به رعایت دقیق استاندارد های اصطلاح نامه نویسی در تدوین چنین اصطلاحنامه های تخصصی، افزون بر توجه به اختلافات مکاتب مختلف در مبانی فلسفی است که لازمه آن بکارگیری اساتید متخصص در هر مکتب برای تبیین دقیق معانی اصطلاحات و روابط پیشینی آن ها به جهت پرهیز از خلط مشترکات لفظی و صیانت پژوهش های آینده از این آسیب است.

    کلیدواژگان: اصطلاحنامه فلسفه اسلامی، پژوهشگاه علوم و فرهنگ اسلامی، نقد شکلی اصطلاحنامه، نقد ماهوی اصطلاحنامه، ارزیابی
|
  • Hassan Yeganeh * Pages 395-424
    The triggering of the national information network ecosystem has been proposed as the main solution to respond to the challenges of cyber space. Today, countries have launched a national information network and provided services on this platform in order to rule in cyber space and solve its challenges, especially in security and legal fields. Considering the scope of the definition and missions of the National Information Network, the mission of the regulatory institutions are to create balance in its ecosystem. Determining the macro-regulatory actions of the National Information Network is an issue that is very important for the realization of the goals of the National Information Network and requires the review of upstream documents. The review of upstream documents in this research was done using the documentary method, and then through group interviews with experts, the necessary information was collected and the data was analyzed using the Delphi technique. Finally, 25 macro actions of regulation were counted and 11 macro actions were recognized with first priority, 10 macro actions with second priority and 4 macro actions with third priority. Considering the wide dimensions of the National Information Network and the lack of determination of the position and macro-regulatory actions in the architecture of the National Information Network, in this research, the macro-regulatory actions of the National Information Network based on upstream documents, the mapping of macro-regulatory actions with the architecture of the National Information Network and the prioritization of macro-regulatory actions for the realization of the goals of the national information network has been identified, analyzed and explained.
    Keywords: National Information Network, Regulation, macro-regulation actions, Virtual Space
  • Hatef Rasouli, Mohammad Hasanzadeh *, Samaneh Rahimian Pages 425-452
    Also, considering the increasing need of people for virtual space, the governance of the site space has become an important part of the governance of the national real space. Therefore, the existence of sovereignty in cyber space is important. Therefore, this research, which is a qualitative research, has been done with the aim of providing an ontology model of cyberspace sovereignty, so that it is the basis of a more comprehensive and complete definition of spatial explanation cyberspace sovereignty,. The domain of cyberspace sovereignty,, searching along with the theoretical foundations of cyberspace sovereignty, through up-to-date and reliable sources and documents and their analysis through thematic analysis method, important components and themes of cyberspace sovereignty, were identified. Based on the obtained components and themes, an ontology of cyberspace sovereignty was extracted. Finally, by organizing entities related to cyberspace sovereignty through the use of its ontology, a more comprehensive definition of cyberspace sovereignty has been provided. In this definition, 17 components related to cyberspace sovereignty were introduced, which constitute the core model of the cyberspace sovereignty ontology, and each of these 17 components has its own sub-components. The reviewed ontology shows the relationships and governing members of the cyberspace in detail. It can be acknowledged that the definition is one of the most complete definitions that have been presented regarding the cyberspace sovereignty.
    Keywords: Anthology, Sovereignty, Cyberspace
  • Tooraj Ghahremani*, Farhad Farnia Pages 453-476

    When it comes to information security (IS), human behavior is a factor that should not be underestimated. Information Security Awareness (ISA) programs are in place as a preventative measure; But data security breaches still exist, and banks hold valuable personal and financial information that makes them a target for cybercriminals. Based on this, the aim of the present study is to investigate the effect of moral disengagement and organizational culture on behaviors related to information security awareness, taking into account the mediating role of cognitive- effective variables of ISA (knowledge and attitude) and security culture of employees of Saderat and Mellat banks. The current research is applied in terms of its purpose, and in terms of data collection, it is descriptive and correlational and is based on the structural equation model. The statistical population of the research was the employees of Mellat and Saderat Bank branches in Tehran; In this regard, the sample size was estimated to be 430 people. In this study, descriptive analysis method with SPSS software and partial least squares (PLS) approach with Smart PLS software were used for data analysis; Because the use of the partial least squares approach as a method of evaluating relationships between variables related to human behavior in the field of information security has been the most common approach in quantitative studies. The findings of the research confirmed the relationships of the model and the path analysis results showed the influence of the variable "moral disengagement" on the variables of "information security awareness behaviors" (first hypothesis), "information security awareness knowledge" (second hypothesis) and "information security awareness attitude" (third hypothesis) is significantly negative. Also, the effect of the variable "information security awareness knowledge" on "information security awareness behaviors" (fourth hypothesis), the effect of the "information security awareness attitude" variable on "information security awareness behaviors" (fifth hypothesis), the effect of the "organizational culture" variable "on the variables of "information security awareness behaviors" and "organizational security culture" (sixth and seventh hypotheses) and the effect of the "organizational security culture" variable on "information security awareness behaviors" (eighth hypothesis) is positive and significant.

    Keywords: Moral Disengagement, Organizational Culture, Security Culture, Information Security Awareness Behaviors, Cognitive- Emotional Variables
  • Elham Mazaheri, Mohammad Mehraeen *, Mostafa Kazemi, Kamaledin Ghiasi Shirazi Pages 477-502
    Over recent years, with the rapid development and increasing popularity of social media, we have seen a massive growth in the volume and variety of fake news. This phenomenon has profound effects on individuals and society. Verification is a widely used method to counter the negative effects of fake news. But this method is not efficient when analyzing huge amount of data. Therefore, advanced machine learning models and feature-based approaches are used to automatically identify fake news. At the same time, the large number of models and the heterogeneity of features used in the literature often create limitations for researchers trying to improve model performance. For this reason, in the present study, a comprehensive framework of the features used in the detection of fake news is presented with a systematic review method. In order to carry out this systematic review, using the guide provided by Okuli and Schabram, all studies conducted in the field of fake news using related keywords were taken from ScienceDirect, Springer, Emerald, IEEE, ACM, Wiley, Sage databases. , JSTOR, Taylor and WOS were extracted and finally 72 related articles were analyzed. As a result of the analysis of related articles, the features were placed in two main categories of news content and news context. News content includes linguistic and semantic features, visual features and style-based features. The news field also includes features based on user, post and network. The obtained results showed that the most used features in detecting fake news are features based on user profile, features of statistical style, writing pattern and readability. Due to the high variety of available features, it is suggested that a wide evaluation of features, models and their performance in multiple data sets should be done and in this way the performance of different models and feature sets should be compared in order to find the best combination of features in different conditions. to become clear.
    Keywords: Fake News, feature, content-based features, context-based features, Systematic Reviews
  • Zeinab Papi* Pages 503-533

    The current research is practical in terms of purpose. In present study used a qualitative approach to examine and analyze the status of the Information Systems of the National Library and Archives of Iran (NLAI). Documentary analysis, Tem analysis, and Fuzzy Delphi techniques were used to collect data. The research community includes the Information systems of the NLAI and experts in the field of information technology. The Information Systems consisted of Digital Library system, Iranian Newspaper System (SANA), National libraries network, National document center network, Iran Publications database, Manuscript database, Iranian Scientific Publications System. Also, 21 people (10 people to interview and 11 people to Delphi techniques) was selected experts in the fields of information systems, digital libraries, copyright and technology. For data analysis, coding and categorization of concepts were used in the form of open coding for documentary analysis and Tem analysis. Qualitative data analysis was done manually and using the MAXQDA 2020 software. Also, descriptive survey was used to analyze the indicators in fuzzy Delphi method and calculations were done using Excel. Tableau 2018 software was used to display and draw indicators better.Therefore, using Tem analysis method, 70 indicators of preventive technical requirements were identified, and then these indicators were given to 11 experts, and after two rounds of the fuzzy Delphi panel, 69 indicators identify. These indicators included 12 components was carried out. Finally, indicators “Adobe Reader and other tools” was removed from the checklist. The use of different methods to collect technical indicators and the use of triangulation method gives credibility to the research. Network Security; standards and frameworks; Authentication; digital reading tools; digital preservation; payment systems; rights metadata; access control; copy control; License; Digital repository and transfer have formed 12 components of preventive technical requirements. Also, the findings of the research showed that digital and bibliographic systems were at a weak level in terms of taking advantage of preventive technical requirements for copyright. This study offered technical framework. Also, the use of technical requirements such as: look inside, the copyright of policy, rights metadata, development and updating of systems and communication and interaction with the software support company, METS standard and use of digital repository offered in the studied information systems.

    Keywords: Technical requirements, copyright, Information Resources, digital information resources, National Library, Archives of Iran (NLAI), information systems
  • Alireza Seghatoleslami* Pages 535-563

    The charter of research ethics is a set of ethical codes and guidelines that outline the ethical limits of research components. The main function of these ethical charters and guidelines is to help students, professors, researchers, and research ethics boards for the ethical realization of research projects and activities, as well as helping the process of evaluating and making appropriate ethical choices with actual and potential ethical challenges in all stages of research. The main issue of this research plan is how to compile and develop ethics charters in research. Therefore, firstly, the nature and function of ethics charters in research were examined, and then, by collecting 36 criteria, a normative framework for the compilation and development of research ethics charters was proposed and presented. These criteria deal with the development and implementation of ethics charters in research from the three perspectives of design and compilation (with 20 criteria), implementation and monitoring (with 9 criteria), and education and promotion (with 7 criteria). In the end, in accordance with this framework of norms and 36 criteria, from the three perspectives mentioned, the "Research Ethics Codes of the Ministry of Science, Research and Technology of Iran" was criticized and examined. This research has been realized in two steps: in the first step, through the library method, the nature and function of research charters and codes of ethics were investigated, as well as the study of numerous sources and references to identify effective criteria in the compilation and development of research ethics charters. Then, a normative framework was proposed for compiling and developing ethics charters in research. This framework was surveyed, validated and finalized by a focus group of experts in this field. In the second step, the "Research Ethics Codes of the Ministry of Science, Research and Technology of Iran", as the only official research ethics charter whose implementation has been notified to the universities and research institutes of that ministry, were criticized and examined in accordance with the criteria and normative framework obtained in the first step. Based on this, the final achievements of this research plan are: 1) introduction and proposal of a normative framework for compiling ethics codes in research, and 2) critical evaluation and review of the "Research Ethics Codes" and suggestions for form and content revision in the compilation and development it.

    Keywords: Charter of Research Ethics, Code of Ethics, Normative Framework, Research ethics
  • Morteza Mohammadi Ostani, Muhammad Karimi, Ali Mirarab * Pages 565-598

    Information fusion is a vital process in information management systems, which aims to merge information from multiple sources to provide a more comprehensive and accurate view of specialized domain. In structured information management systems, there are several methods for aggregating, consolidating, and fusioning information, but their approaches have not yet provided a clear pattern. The aim of the current research is to explain the concept and appropriate models of information fusion in information management systems and its use in relationship-based databases such as thesaurus. The research method is a conceptual type with ananalytical approach. The research population consisted of texts and outputs in the field of information fusion. The data collected by the library method. The findings showed that information fusion models are in four general categories of models based on information flow, workflow and activity, roles and functions of entities, and understanding concepts. The Omnibus workflow and activity model and the model based on the roles and functions of Endsley's entity as selected models according to the basic JDL are suitable for use in relationship-based information management systems such as thesauruses and ontologies, and they have the ability to be used with some changes. The main disadvantage of the reviewed information fusion models is not paying attention to the characteristics of specific information structures such as thesauruses. Not considering role of expert users in information systems based on user decisions that have the task of extracting specialized information and ignoring the collective participation system to solve complex problems, including finding similarities and solving it in the mass of information, not describing the required functions to solve the problems, managing the effects in case of system or user errors and restoring fusioned and consolidated information, as well as non-implementation of methods with operational examples in such structures, can be counted among these problems. In general, in each model of information fusion in information management systems based on thesaurus, the general processes of finding similarities, examining similarities, aggregating parameters and information fusion and managing the effectiveness of sub-systems should be considered. Unlike traditional information fusion methods that focus more on merge data, semantic information fusion emphasizes fusioning related knowledge and concepts stored in thesauruses instead of merging data and information. Therefore, it is suggested to pay attention to Semantic approaches in the process of integrating and fusion new models.

    Keywords: Data Fusion, Information fusion, Information fusion models, Information Management Systems, Thesaurus
  • Azadeh Mohebi *, Azadeh Fakhrzdaeh, Marzieh Zarinbal Pages 599-626
    Keyword extraction is a key step in document indexing. Keywords are semantic and content-based descriptors of a document, which can be used in document retrieval and representation. In databases containing scientific documents, such as Ganj in Irannian Research Institue for Information Science and Technology (IranDoc), it is even more critical to assign meaningful keywords for documents, since the documents are from different academic disciplines and contain technical terms.As the number of scientific documents grows exponentially, having an automatic and intelligent keyword extraction technique is getting more critical. There are various keyword extraction techniques that are either based on statistical features of the text or machine learning approaches, and sometimes a combination of both. In this research, we propose a new keyword extraction method for Persian scientific documents based on recommender systems and case-based reasoning. The proposed method is designed based on case-based reasoning in which the main assumption is that similar documents share similar keywords. There are two main steps in the proposed approach: first, similar documents to a given new document are retrieved based on TFIDF and word2vec model, second, the candidate keywords are extracted from retrieved documents and ranked based on a new scoring scheme, and a set of keyword are selected from the candidate keywords based on their score. The proposed method is tested and avaluated on a set of documents of Ganj database in three different subject areas (Art, Humanities and Engineering), based on precision, recall and expert panel
    Keywords: Keyword Extraction, Recommender systems, Case-Based Reasoning, Word2Vec Word Embedding, information retrieval, Machin Learning, Indexing
  • Soheila Karbasi *, Mojan Safaeinejad Pages 627-655
    In this research, the data models of widely used social networks, their advantages and disadvantages, as well as the things that need to be taken into account for storing and retrieving social network data, have been reviewed and presented. The usage of social networks has grown significantly in the past few years, and the result of this growth is the production of a large amount of data. On the other hand, it is necessary to effectively store and analyze social network data for all kinds of businesses today. The types of common storage methods based on the relational data model are not scalable for large amounts of information and therefore are not optimal and efficient. As a result, the use of storage methods based on non-relational models along with relational models have become very common. In this research, a large dataset of Twitter social network data, which includes 1,581,468 tweets from posts sent by 300,000 Persian users of this social network, is stored in three databases: MySQL, MongoDB, and Redis, and the performance of each of them with several different queries has been examined and compared. In addition to measuring the time spent to perform operations on the data, the amount of space occupied by the databases was also examined. Considering the advantages and limitations associated with the structure of all three databases, from the obtained values, it can be concluded that if the data has a specific structure, a relational database like MySQL is a good choice. If the data is unstructured or structured with the potential for rapid growth, NoSQL models will perform better. In addition, storing data temporarily and at high speed in key-value databases such as Redis, which store data in memory, are more suitable. Also, in terms of execution time, MongoDB executes queries very fast compared to MySQL and Redis, which is a proof that NoSQL databases show better performance and scalability for most operations in large datasets.
    Keywords: Social networks, database, Big Data model, Scalability
  • Seyedeh Zohreh Hosseini, Reza Radfar*, AmirAshkan Nasiripour, Ali Rajabzadeh Ghatary Pages 657-697

    This study aimed to develop IoT-based machine learning algorithms care and improvement while detecting and predicting real-time epidemics.The target disease is COVID-19 due to its importance and epidemic.The research method is based on design science. The research approach is forward-looking, so the mechanism of disease transmission and its effective characteristics enable us to make predictions about the disease and thus design disease control strategies and health care.The research was carried out in a seven-step process. IoT features were extracted in the present study with experts' opinions. The features obtained in the experiment of two different algorithms, "k nearest neighbor" and "decision tree," were created on the data to determine the best model.After selecting the best depth validation of the model were performed by confusion matrix analysis.The results of running k-nearest neighborhood and Decision Tree algorithms for the prediction of COVID-19 indicated an accuracy of > 98%. Higher sensitivity (99%) was obtained in the Decision Tree algorithm, which is very important diagnosing COVID-19 and indicates the minimum number of false negatives in the test results.

    Keywords: artificial intelligence, COVID-19, infectious diseases, internet of things, Machine Learning
  • Hajar Sotudeh *, Adeleh Asadi, Mostafa Fakhrahmad Pages 699-727
    Introduction

    The goal of evidence-based medicine is helping clinical professionals to obtain relevant and valid information to make appropriate clinical decisions. Therefore, to meet the information needs of health professionals, information retrieval systems should facilitate access relevant and also methodologically valid.

    Research method

    The current research uses the quasi-experimental method of one group pre-test - post-test in order to achieve the research goals. The research community was made up all the clinical trial articles available in the Cochrane database until the end of 2018.

    Findings

    The results of the present study showed that among the research variables, the words of the reviewers' comments along with the abstract had the greatest impact on the ranking. These results showed that the Cochrane reviewers' comments can be a suitable tool for use in ranking systems based on relevance and validity. Also, the results of this research showed that it is possible to rank the methodological validity and combine it with relevance by using the internal and external elements of the articles.

    Conclusion

    This research distinguished the types of words used in the text of scientific articles and its effect on improving the ranking based on relevance and methodological validity. In retrieval systems based on natural language, more emphasis has been placed on the totality of the text and less attention has been paid to the contribution of vocabulary types in explaining the relevance of articles. The findings of this research highlighted, once again, the difference of vocabulary types in explaining relevance and methodological validity and revealed the necessity of determining the target vocabulary set in all types of searches.

    Keywords: Ranking, information retrieval, methodological validity, Cochrane, Relevance, reviewers' comments
  • Kooresh Najibi* Pages 729-756

    The upcoming article, which is based on the method of library research and interpretation and analysis, is a fundamental and practical research research, with a critical attitude in the book of Thesaurus of Islamic Philosophy of the Institute of Islamic Sciences and Culture, and its qualitative evaluation and criticism with the aim of explaining its shortcomings. and their subsequent reviews in the editions to achieve modernity, development and respond to the needs of users with the growing knowledge of Islamic philosophy. Qualitative assessment is in two parts, form and substance. Form assessment including the assessment of alphabetical order, calligraphy, Arabicization, Farsi or Arabic terms. And the substantive evaluation includes the evaluation of the introduction, the geometric concept of science and its prior relations. The findings of the research in the form section include the extensive use of Arabic words, lack of cross-references, lack of division, lack of sufficient use of domain notes, non-standard use of descriptors, non-observance of alphabetical order in the alphabetical display of terms, and the presence of spelling mistakes. . The findings of the research in the substantive part include the explanation of defects in the geometrical structure of philosophy and the hierarchical relationships of terms, as well as the explanation of the error in understanding philosophical concepts and the previous semantic relationships of terms, which in some cases are caused by the error in understanding philosophical concepts or the confusion of concepts and terms. It is characteristic of philosophical systems of illumination, walk and sublime wisdom, which need to be resolved; Because this thesaurus has been accepted by scientific centers as a basis for storing, searching and retrieving information and is being translated in other countries. The proposal of the research is to recommend strict adherence to the thesaurus writing standards in the compilation of such specialized thesauruses, in addition to paying attention to the differences of different schools in the philosophical foundations, which requires the use of expert professors in each school to explain the meanings of terms and their previous relationships. The purpose is to avoid the confusion of verbal commonalities and to protect future researches from this damage.

    Keywords: Thesaurus of Islamic Philosophy, Research Institute of Islamic Sciences, Culture, formal critique of the thesaurus, Critical review of the thesaurus, Evaluation