فهرست مطالب

پژوهشنامه پردازش و مدیریت اطلاعات
سال سی و هشتم شماره 2 (پیاپی 112، زمستان 1401)

  • تاریخ انتشار: 1401/10/18
  • تعداد عناوین: 12
|
  • رحمان شریف زاده* صفحات 339-368

    فناوری اطلاعات به سبب درهم تنیدگی روزافزون آن با زندگی اجتماعی اهمتی اخلاقی فزاینده ای بافته است. ازاین رو شرکت های مربوطه ای چون ای سی ام و آی تریپل یی مجموعه اصول و کدهای اخلاقی ای برای حرفه فناوری اطلاعات تدوین و هرازگاهی آن را به روز کنند. این اصول و کدها گرچه به عنوان مجموعه توصیه هایی برای راهنمایی اخلاقی مفیدند، در برخی از موقعیت های پیچیده، کارایی شان را برای حرفه مندان این حرفه از دست می دهند. چراکه اصول و کدها ممکن است در موقعیت هایی باهم در تعارض بیفتند. در این مقاله تلاش خواهیم کرد الگویی هنجاری برای کمک به تصمیم گیری در چنین موقعیت هایی ارایه کنیم. برای رسیدن به این الگو از آموزه ها و رویکردهای متعددی چون دیدگاه دیوید راس، آموزه اثر دوگانه، و نیز رویکرد جودیث تامسون در اخلاق هنجاری و کاربردی کمک خواهیم گرفت. این الگو دارای سه شرط عمومی و یک شرط اختصاصی خواهد بود که برای پاسخ به دوراهی هایی با مضمون رواداشتن شر و توسل به شر در حرفه فناوری اطلاعات می توانند یاری گر عامل اخلاقی باشند. ما بر اساس این الگو علاوه بر اینکه برخی دوراهی های مهم حوزه اخلاقا کاربردی را تبیین خواهیم کرد و به آن ها پاسخ خواهیم داد، آن را در دست کم شش موقعیت اخلاقا مهم در حوزه فناوری اطلاعات، ازجمله در حوزه های خودروهای خودران، حریم خصوصی و امنیت، جنگ های سایبری، باج افزارها، و اینترنت اشیا، به کار خواهیم بست. در هر کدام نشان خواهیم داد که شرایط چهارگانه چگونه می توانند به عامل اخلاق در تصمیم گیری های اخلاقی کمک کنند. بااین حال ادعا نخواهیم کرد که این الگو همچون یک منطق تصمیم پذیر عمل می کند چراکه فرایند رسیدن به تصمیم اخلاقی الگوریتم وار نیست و عوامل شناختی و غیرشناختی زیادی در این میان نقش بازی می کنند.

    کلیدواژگان: حرفه فناوری اطلاعات، اصول اخلاقی، کدهای اخلاقی، دوراهی اخلاقی، الگوی اخلاقی
  • الهه اخوان حریری، علی منصوری*، حسین کارشناس نجف آبادی صفحات 369-396

    شناسایی موضوعات داغ در حوزه های پژوهشی همواره موردتوجه بوده است؛ تصمیم گیری هوشمندانه در مورد آنچه باید مورد مطالعه و قرار بگیرد، همواره عاملی اساسی برای محققان بوده و می تواند برای پژوهشگران موضوعی چالش برانگیز باشد. هدف پژوهش حاضر، شناسایی موضوعات داغ در مقالات نمایه شده در پایگاه اسکوپوس در حوزه علم اطلاعات و دانش شناسی در سال های 2010 تا 2019 با استفاده از تکنیک های متن کاوی است. جامعه آماری، شامل 50995 مقاله منتشرشده در 249 عنوان مجله نمایه شده در پایگاه اسکوپوس در این حوزه در بازه زمانی 2010 تا 2019 است. برای شناسایی خوشه های موضوعی این حوزه، از الگوریتم های تکنیک تخصیص دیریکلت پنهان (LDA) استفاده شد و داده ها با استفاده از کتابخانه های متن کاوی در نرم افزار پایتون مورد تحلیل قرار گرفت. برای این کار، با اجرای الگوریتم وزن دهی لغات به روش TF-IDF و تشکیل ماتریس متنی، موضوعات در پیکره اسناد تعیین و ضرایب اختصاص هر سند به هر موضوع (تتا) مشخص شد. خروجی اجرای الگوریتم LDA، منجر به شناسایی تعداد 260 موضوع شد. تخصیص برچسب به هریک از خوشه های موضوعی، بر اساس کلمات با بالاترین وزن اختصاص یافته به هر موضوع و با نظر کارشناسان حوزه موضوعی، انجام گرفت. با انجام محاسبات با ضریب اطمینان 95%، تعداد 63 موضوع از بین 260 موضوع اصلی انتخاب شد. با محاسبه میانگین تتا برحسب سال، تعداد 24 موضوع دارای روند مثبت (موضوع داغ) و تعداد 39 موضوع دارای روند منفی (موضوع سرد) تعیین شد. بر اساس نتایج، موضوعات مطالعات سنجشی، مدیریت الکترونیکی/ بازاریابی الکترونیکی، بازیابی محتوا، تحلیل داده و مهارت الکترونیکی، ازجمله موضوعات داغ بود و موضوعات آموزش، آرشیو، مدیریت دانش، سازمان دهی و سلامت کتابداران ازجمله موضوعات سرد در حوزه علم اطلاعات و دانش شناسی در بازه زمانی 2010 تا 2019 شناسایی شد. تحلیل یافته ها نشانگر آن است که به دلیل رویکرد اغلب پژوهشگران در 10 سال گذشته به استفاده از فناوری های نوظهور، موضوعات مبتنی بر فناوری بیشتر باعث جذب آنان شده و در مقابل، موضوعات پایه ای این حوزه، کمتر موردتوجه قرارگرفته اند.

    کلیدواژگان: موضوعات داغ، موضوع سرد، تخصیص دیریکلت پنهان، متن کاوی، علم اطلاعات و دانش شناسی
  • میلا ملک الکلامی، محمد حسن زاده*، عاطفه شریف، منصور رزقی صفحات 397-428

    توسعه نوآوری در بخش خدمات یک فرایند پیچیده است که عوامل مختلفی بر آن تاثیر می گذارد و بخش خدمات به دلیل ماهیت تجاری خود باید در فرآیندهای نوآورانه خود به روز شود. ازآنجا که لازمه نوآوری دانش است، برای دستیابی به اهداف و نوآوری در صنعت، اساسا نیاز به استخراج دانش است. دانش مناسب و به موقع، صنعت را به سمت افزایش بهره وری و سطح نوآوری خود سوق می دهد. این مقاله به منظور ارایه مدل استخراج دانش در صنعت خدمات انجام شده است. بدین منظور از مدل نظریه ای داده بنیاد استفاده شده است که از لحاظ هدف، کاربردی و از لحاظ نحوه گردآوری اطلاعات جز پژوهش های کیفی می باشد. جامعه آماری شامل از خبرگان و مدیران در صنایع خدماتی می باشد و نمونه آماری با توجه به اشباع نظری 14 نفر می باشد که به شیوه هدفمند انتخاب شدند. ابزار گردآوری داده ها، در بخش کیفی، مصاحبه نیمه ساختاریافته بود. برای تایید دقت و صحت داده ها، در مورد اعتبار مطالعه از شیوه بررسی به وسیله اعضای پژوهش استفاده گردید. در این پژوهش برای محاسبه پایایی، از روش توافق درون موضوعی استفاده شده است. درصد توافق موضوعی با 80 درصد قابلیت اعتماد کدگذاری ها را تایید می کند. برای کدگذاری از نرم افزار ATLAS.TI استفاده شد. بعد از تحلیل داد ه ها مدل استخراج دانش برای صنایع خدماتی استخراج شد. بر این اساس 122 مفهوم و 18 مقوله فرعی با استفاده از الگوی پارادایم استراوس و کوربین دسته بندی شده است. این عوامل در قالب مدل متداول نظریه داده بنیاد در 18 دسته قرار گرفتند که عبارتند از: شرایط علی (عوامل زیرساختی و فناورانه، عوامل ساختاری، منابع انسانی، فرهنگ سازمانی، حمایت مدیران ارشد)، شرایط زمینه ای (دانش استراتژیک سازمانی، مدیریت ارتباطات سازمانی، پشتیبانی از سیستم استخراج هوشمند دانش)، راهبردی (راهبردهای تجاری سازی دانش، راهبردهای خلاقیت، راهبردهای نوآورانه)، شرایط مداخله گر (ویژگی های فردی، عوامل مالی، عوامل مدیریتی)، پیامدها (ارزش آفرینی، مزیت رقابتی، جهانی شدن، رشد و بلوغ). لذا با توجه به نتایج به دست آمده از این پژوهش می توان منابع حیاتی در صنایع خدماتی را جهت استخرج دانش به موقع و مناسب شناسایی و دانش حاصل از این استخراج را به منظور ایجاد مزیت رقابتی در بازارهای داخلی و خارجی به کار برد.

    کلیدواژگان: استخراج دانش، نوآوری، صنایع خدماتی، مدیریت دانش، داده بنیاد
  • افروز همراهی*، رویا پورنقی، داریوش مطلبی صفحات 429-456

    هدف از این پژوهش، تحلیل مولفه ها و شاخص های نشر علمی در پایگاه های نشر علمی از منظر مولفه های دسترسی، ارتباطات، کنترل، زیرساخت، زبان، منابع اطلاعاتی(مواد)، پشتیبانی، فناوری، اقتصاد، ارزیابی ،آموزش، اخلاق و شاخص های آن ها بود. پژوهش حاضر از نوع کیفی بود و جامعه آن با استفاده از تحلیل محتوای متون علمی شناسایی شد. در مجموع 73 پایگاه نشر علمی شناسایی شد و نمونه آن بر اساس فراوانی و تایید خبرگان به 12 پایگاه رسید که شامل پایگاه های آرشیو، دواج، الزویر، اشپرینگر،گوگل اسکالر، پاب مد، نیچر، وب او ساینس، اسکوپوس، مرکز اطلاعات سلامت، کنسرسیوم محتوای علمی اسپارک و آمازون (بخش منابع علمی) بود. ابزار این پژوهش شامل سیاهه وارسی بود که بر اساس مولفه ها و شاخص های نظام نشر علمی استخراج شد. یافته ها حاکی از این بود که تمامی مولفه های دسترسی، ارتباطات، کنترل، زیرساخت، زبان، منابع اطلاعاتی(مواد)، پشتیبانی، فناوری، اقتصاد، ارزیابی،آموزش و اخلاق در پایگاه های نشر علمی مورد توجه قرار گرفته اند و اختلاف پایگاه ها در کاربست شاخص های نشر علمی است. نتایج پژوهش نشان داد برخی مولفه هایی نظیر فناوری، پشتیبانی وکنترل و شاخص های آن ها دراین پایگاه ها اهمیت یکسانی دارند؛ در حالی که با توجه به نوع، قدمت و سیاست کلی هر پایگاه، در میزان اهمیت شاخص های برخی مولفه ها؛ مانند آموزش، اقتصاد و منابع اطلاعاتی؛ در میان پایگاه ها اختلاف هایی نظیر شیوه آموزش، تامین منابع مالی و قالب های اطلاعاتی نیز مشاهده شد.

    کلیدواژگان: پایگاه های نشر علمی، پایگاه های اطلاعاتی، نشر علمی، نظام نشر علمی، نظام اطلاعاتی، انتشارات علمی
  • مینا رضایی دینانی* صفحات 457-482

    با توجه به نقش مهم و تعیین کننده واژگان تخصصی در مسیریابی دقیق و کامل پژوهش های علمی، هدف از پژوهش حاضر، تبیین میزان اثربخشی برچسب گذاری معنایی در رفع ابهام هم نویسه های تخصصی و کیفیت بازیابی حاصل از آن بود. این پژوهش از حیث هدف کاربردی و از حیث روش شناسی، از نوع کاربردشناسی تجربی یا پیکره ای است و روشی با نظارت محسوب می شود. از جمله فنون پردازش زبان طبیعی که برای دستیابی به هدف پژوهش به کار گرفته شد تحلیل ریخت شناسی و برچسب گذاری معنایی هم نویسه های تخصصی بود. جامعه پژوهش را 442 مقاله علمی در قالب دو گروه کنترل و آزمون تشکیل دادند. گروه کنترل دارای 221 متن کامل مقاله بدون برچسب و گروه تجربی دارای همان 221 مقاله اما این بار برچسب گذاری شده، بود که در نظام بازیابی اطلاعات برای تبیین اثربخشی برچسب گذاری معنایی در ابهام زدایی هم نویسه های تخصصی و کیفیت بازیابی متون علمی آزموده شدند. سطح معنی داری آزمون ویلکاکسون نشان داد که میزان کیفیت بازیابی نتایج بعد از به کارگیری پیکره تخصصی برچسب گذاری شده نسبت به قبل از آن تفاوت معنی داری دارد. بررسی رتبه های منفی و مثبت نشان داد این میزان به طور معنی داری افزایش یافته و به حد بیشینه آن یعنی 1 رسیده است. به عبارت دیگر در روش آزموده شده ی این پژوهش، فراخوانی و دقت که هر دو در تعیین میزان کیفیت بازیابی (معیار F) تاثیر دارند در حد بهینه آن یعنی 1 به دست آمد. از یافته های پژوهش حاضر چنین برمی آید که لزوما بین فراخوانی و دقت رابطه معکوس وجود ندارد و این دو می توانند به موازات یکدیگر به حد بیشینه خود برسند. کارایی بهتر نظام بازیابی با استفاده از این رویکرد، به دلیل تجهیز نظام بازیابی به برچسب های موضوعی و در نتیجه آن توانمندسازی این نظام به تمایز موضوعی هم نویسه های تخصصی است. تعبیه مجموعه آموزش در ساختار نظام بازیابی، اطلاعات افزوده ای را فراهم می کند تا در خدمت نظام بازیابی برای تمایز بین معانی متعدد هم نویسه های تخصصی قرار گیرد. این ابزار، یکی از عناصری است که کیفیت بهینه بازیابی را موجب می شود و نظام بازیابی اطلاعات را هنگام بازیابی متون حاوی هم نویسه های تخصصی از بازیابی واژه محور به سمت بازیابی محتوامحور سوق می دهد.

    کلیدواژگان: هم نویسه تخصصی، بازیابی اطلاعات، برچسب گذاری، پیکره متنی، معیار اف
  • عباس صادقی پوریانی، مرضیه زرین بال* صفحات 483-514

    سامانه های بافت آگاه با فراهم نمودن اطلاعات هم سو با ترجیحات و بافت کاربر به او خدمت می کنند. هدف این پژوهش شناخت بافت های مربوط به موجودیت های یک پایگاه اطلاعات پایان نامه ها و رساله های الکترونیکی است. پژوهش از نظر هدف کاربردی-توسعه ای است که در شناسایی مفاهیم، کدگذاری و دسته بندی بافت ها، از روش اسنادی استفاده شده است. سهم این پژوهش در افزایش دانش، شناخت بافت های موجودیت های سه گانه ی کاربر، مدرک الکترونیکی «پارسا» و سامانه است. یافته ها نشان داد که بافت های موجودیت کاربر در 10 دسته ی: هویت کاربر، علاقه و ترجیحات، فعالیت ها و تاریخچه، ارتباطات اجتماعی، بافت رایانشی، مکان های کاربر، زمان های کاربر، سطح دسترسی، وضعیت کاربر و محیط فیزیکی کاربر دسته بندی می شود. بافت های موجودیت پارسا دارای 8 دسته ی: هویت پارسا، سطح دسترسی به پارسا، مخاطبان، فعالیت ها و رویدادها، محتوای پارسا، زمان، مکان و قالب پارسا است. بافت های موجودیت سامانه در 8  دسته ی: ویژگی های سامانه، امکانات تعامل با کاربر، قابلیت نمایه سازی، ارتباط با سامانه ها، ذخیره سازی داده های کاربران، بافت رایانشی، فعالیت و مکان دسته بندی شد. انجام این پژوهش به توسعه دهندگان و تصمیم گیران سامانه های پارسا، شناختی از بافت ها می دهد که با درنظر گرفتن امکانات سامانه های بافت آگاه برای پاسخ به نیازهای کاربران، پیشنهاددهی مدرک، بازیابی اسناد کاربرمدار و تدوین روال های سازگاری سامانه، به بازطراحی سامانه و برطرف کردن  نیاز کاربران بیردازند. در مطالعه حاضر سعی شده است همه بافت های یک سامانه ی پارسا شناسایی شود و علاوه بر بافت کاربر، به بافت های پارسا و سامانه نیز توجه شده است. توسعه دهندگان سامانه ی بافت آگاه پارسا بر اساس نوع خدمات مبتنی بر بافت به بخشی از بافت های شناسایی شده نیاز خواهند داشت.

    کلیدواژگان: بافت، بافت آگاهی، پایگاه اطلاعاتی پایان نامه ها و رساله ها، پارسا، تعامل انسان-رایانه
  • حسن غفاری، باقر کرد*، نورمحمد یعقوبی، عبدالعلی کشته گر صفحات 515-542

    در سال های اخیر، سازمان ها در بخش دولتی و خصوصی، با حجم بالایی از داده های ساختاریافته و غیرساختاریافته روبرو هستند که نیاز به یک چارچوب حاکمیتی داده های بزرگ احساس می شود. حاکمیت داده های بزرگ، با استفاده از پایش محیط و جمع آوری داده ها، ذخیره سازی و تجزیه و تحلیل داده ها ، اطلاعات مورد نیاز تصمیم گیرندگان سازمانی را تامین می کند. استقرار چارچوب حاکمیت داده های بزرگ، سازمان ها را در بخش دولتی و خصوصی قادر می سازد تا بر اساس شواهد و بینش، تصمیمات بهتری را اتخاذ نمایند. از این رو، هدف پژوهش حاضر بررسی ذهنیت خبرگان در زمینه استقرار حاکمیت داده های بزرگ است و برای این منظور از روش شناسی کیو استفاده شده است. جامعه آماری پژوهش حاضر شامل خبرگان سازمان های دولتی بوده و بر اساس نمونه گیری هدفمند، تعداد 38 نفر برای مطالعه انتخاب شدند. فضای گفتمان پژوهش حاضر شامل، کتب و مقالات معتبر داخلی و خارجی و مصاحبه نیمه ساختاریافته بود. تعداد گزاره هایی که در فضای گفتمان شناسایی شد شامل 52 گزاره بود که با تعدیل و حذف گزاره های تکراری، تعداد 48 گزاره نهایی شناسایی شد. سپس، هر کدام از گزاره های کیو شماره گذاری شد و از خبرگان خواسته شد تا شماره هر گزاره کیو را در نمودار کیو مرتب سازی کنند. برای تحلیل داده های حاصل از فضای گفتمان، از روش تحلیل عاملی اکتشافی و ماتریس همبستگی استفاده شد. برای بررسی روایی و پایایی روش پژوهش از آزمون آلفای کرونباخ، شاخص KMO و آزمون بارتلت استفاده شد. نتایج پژوهش حاضر، تعداد سه گونه ذهنیت را نشان داد که مقدار مجموع واریانس کل تبیین شده برابر با 81/80 درصد بود. مقدار درصد واریانس تبیین شده برای گونه اول برابر با 59/30 درصد و برای گونه دوم برابر با 31/26 درصد و برای گونه سوم برابر با 90/23 درصد بود. ارزیابی گزاره های مربوط به دهنیت خبرگان نشان می دهد که عمده خبرگان، بر نتایج استقرار حاکمیت داده های بزرگ تاکید دارند؛ بر مواردی مانند تسهیل جریان دانش، تصمیم گیری کارآ و اثربخش، عملکرد نوآورانه، تقویت کار تیمی و برنامه ریزی و تحلیل استراتژیک تاکید دارند. از طرفی، خبرگان بر پیشران هایی مانند فناوری اطلاعات، کنترل و نظارت بر داده ها، مکانیسم های ساختاری، ظرفیت دموکراتیک سازی و ظرفیت های قانونی توجه دارند. بطورکلی، برای بهره گیری از مزایای حاکمیت داده های بزرگ در سازمان های دولتی و کاستن از شکاف داده ای، باید بین گزاره ها و نتایج استقرار حاکمیت داده های بزرگ، هماهنگی و انطباق وجود داشته باشد و این پژوهش می تواند به عنوان تقشه راهی برای این مورد باشد.

    کلیدواژگان: داده های بزرگ، حاکمیت داده های بزرگ، گونه شناسی ذهنیت خبرگان، روش شناسی کیو
  • محسن رجب زاده، شعبان الهی*، علیرضا حسن زاده، محمد مهرآیین صفحات 543-570

    زنجیره تامین در خصوص کالاهای با عمر کوتاه و فاسد شدنی به خصوص محصولات کشاورزی همواره یکی از با اهمیت ترین و چالش برانگیزترین مباحث مدیریتی در زمان های مختلف بوده است. زیرا، در تمامی مراحل فرایند تولید محصولات کشاورزی ممکن است عوامل غیر ایمن و غیر بهداشتی، سلامت محصولات کشاورزی را در معرض مخاطره قرار دهد. علاوه بر این، یکی از مسایل کلیدی زنجیره تامین کشاورزی حجم بالای هدر رفت محصولات در طول زنجیره تامین است. در ایران به عنوان یک کشور در حال توسعه سالانه حدود 30 درصد کل محصولات کشاورزی هدر می رود. حجم بالای ضایعات محصولات کشاورزی به ویژه در رابطه با محصول گندم به عنوان یک محصول سیاسی و راهبردی اهمیت بیشتری پیدا می کند. نتایج برخی از مطالعات نشان می دهد میزان زیادی از هدر رفت گندم، در کشورهای در حال توسعه به دلیل استفاده گسترده از شیوه های سنتی در بخش ذخیره سازی این محصول است. به نظر می رسد، بکارگیری فناوری های نوظهوری نظیر اینترنت اشیاء می تواند راه حل مناسبی برای این مساله باشد. با این وجود، شواهد نشان می دهد در زمینه بکارگیری اینترنت اشیاء در زنجیره تامین به ویژه در بخش لجستیک، کمبودهایی وجود دارد و پژوهشگران می بایست از طریق مدل سازی و بهینه سازی، شکاف های نظری موجود در این زمینه را پوشش دهند. از این رو، پژوهش حاضر در صدد است با استفاده از رویکرد علم طراحی اقدام پژوهانه این مساله مهم پژوهشی را برای اولین بار در ایران مورد تاکید قرار دهد. مهمترین یافته های این پژوهش، شامل مدل مفهومی داده، مدل منطقی پایگاه داده و مدل فیزیکی داده بکارگیری اینترنت اشیاء در بخش ذخیره سازی زنجیره تامین گندم می شود که با مشارکت خبرگان صنعتی و متخصصین مهندسی نرم افزار طراحی و اعتبارسنجی شده است. مدل های طراحی شده در این پژوهش می تواند برای پیاده سازی فناوری اینترنت اشیاء در مراکز ذخیره سازی گندم مفید باشد و به بخشی از مسایل مرتبط با این حوزه پاسخ دهد. یافته های این پژوهش می تواند راهنمای مناسبی برای مسیولان و تصمیم گیرندگان جهت توسعه و بکارگیری اینترنت اشیاء در بخش ذخیره سازی گندم باشد.

    کلیدواژگان: زنجیره تامین کشاورزی، اینترنت اشیاء، علم طراحی اقدام پژوهانه، محصولات کشاورزی، گندم
  • امید بشردوست، عزت الله اصغری زاده*، محمد علی افشار کاظمی صفحات 571-606

    انباشت اطلاعاتی و ایجاد پایگاه های داده ای باعث شده است تا شرکت هایی که قصد دارند به مشتریان خود خدمات مناسب تری را ارایه کنند به سوی بهره مندی از ابزارهای نوین ارتباط با مشتری حرکت نمایندکه یکی از این ابزارها و روش ها، تکنیک های داده کاوی است که می تواند نقش مهم وکلیدی در مدیریت ارتباط با مشتری ایفا کند. هدف این پژوهش تحلیل ارزش مشتریان با رویکرد ترکیبی داده کاوی بر اساس مدل  WRFM است  بر این اساس 64858 نمونه از پایگاه داده مشتریان در دوره 1398- 1399 با روش نمونه گیری هدفمند در دسترس انتخاب شده است. وزن شاخص های مدل WRFM با نظرسنجی از 3 کارشناس خبره شرکت به کمک فرآیند تحلیل سلسله مراتبی تعیین شده است. بر اساس متغیرهای اولیه پژوهش و متغیرهای بدست آمده از شاخص های مدل WRFM، ارزش خرید مشتریان تجزیه و تحلیل شده است. برای تجزیه وتحلیل داد ه ها از نرم افزار SPSS Modeler و SPSS استفاده شد. نتایج نشان می دهد که روش خوشه بندی K-Means نسبت به روش های خوشه بندی دو مرحله ای و شبکه عصبی کوهنن عملکرد بهتری دربخش بندی مشتریان داشته است در نهایت براساس معیارهای درصد خلوص، تکرار، میزان خطا و شاخص اطلاعات متقابل نرمال شده (NMI) از خوشه بندی های مختلف K-Means، شش خوشه با امتیاز NMI (0/631) انتخاب شده است. این پژوهش مدل WRFM را برای تجزیه و تحلیل ارزش مشتری معرفی کرده است که وزن شاخص های این مدل با نظرسنجی از کارشناسان و با استفاده از فرآیند تحلیل سلسله مراتبی و بر اساس میزان ناسازگاری (0/052) که از روش تحلیل سلسله مراتبی بدست آمده است به ترتیب  (0/15)، (0/29) و (0/56) تعیین شده است که این مقادیر نشان دهنده اهمیت بیشتر شاخص ارزش پولی نسبت به دو شاخص دیگر  بوده است. در نهایت این شش خوشه با استفاده از شیوه نامگذاری بخش های بازار در پژوهش های (چانگ و تسای  2004؛ باباییان و سرفرازی 2019) در 4 دسته کلی: مشتریان کلیدی و ویژه، مشتریان بالقوه طلایی، مشتریان نامطمین ازدست رفته و مشتریان نامطمین جدید قرارگرفتند. بر طبق مدل پژوهش، شرکت باید بیشتر بر مشتریان خاص وکلیدی خود یعنی مشتریانی که در خوشه های اول، سوم و پنجم قرارگرفته اند تمرکز داشته باشد یعنی مشتریانی وفاداری که ضمن تداوم خرید خود دارای مقادیر بالاتر از میانگین در دو شاخص ارزش پولی و دفعات خرید بوده و به تازگی نیز خریدهای با ارزش ریالی بالا داشته اند که شرکت باید با توجه به منابع محدود خود استراتژی های بازاریابی کارآمدی برای این دسته از مشتریان درنظرگیرد تا ضمن حفظ مدیرت ارتباط با مشتری به سودآوری بیشتر برای شرکت منجر شود.

    کلیدواژگان: تجزیه و تحلیل ارزش مشتری، تشخیص مغایرت، خوشه بندی، داده کاوی، مدل WRFM
  • زینب رحیمی، مهرنوش شمس فرد* صفحات 607-638

    شناسایی روابط علی و همچنین تعیین مرز عناصر علی در متن، از جمله مسایل چالش برانگیز در پردازش زبان طبیعی (NLP) به ویژه در زبان های کم منبع مانند فارسی است. در این پژوهش، در راستای آموزش سیستمی برای شناسایی روابط علی و مرز عناصر آن، یک پیکره علیت برچسب خورده انسانی برای زبان فارسی معرفی می شود. این مجموعه شامل 4446 جمله (مستخرج از پیکره بیجن خان و متن یکسری کتاب) و 5128 رابطه علی است و در صورت وجود، سه برچسب علت، معلول و نشانه علی برای هر رابطه مشخص شده است. ما از این پیکره برای آموزش سیستمی برای تشخیص مرزهای عناصر علی استفاده کردیم. همچنین، یک بستر آزمون شناسایی علیت را با سه روش یادگیری ماشین و دو سیستم یادگیری عمیق مبتنی بر این پیکره ارایه می کنیم. ارزیابی های عملکرد نشان می دهد که بهترین نتیجه کلی از طریق طبقه بندی کننده CRF به دست می آید که معیار F برابر 76% را ارایه می کند. علاوه بر این، بهترین صحت (91.4٪) در روش یادگیری عمیق BiLSTM-CRF به دست آمده است. به نظر می رسد وجود CRF به دلیل مدلسازی بافتار منجر به بهبود دقت سیستم می شود.

    کلیدواژگان: PerCause، شناسایی عبارات علی، CRF، یادگیری عمیق
  • یعقوب نوروزی*، هدی هماوندی، بنت الهدی خبازان صفحات 639-670

    این پژوهش با هدف بررسی تصاویر بازیابی شده از موتورهای کاوش برگزیده طبق ویژگی های نوشتاری و معنایی زبان فارسی و تعیین میزان ربط آن ها با استفاده از فرمول های جامعیت و دقت و نیز شناسایی کارآمدترین موتورکاوش در بازیابی تصاویر به زبان فارسی و به روش پیمایشی - تحلیلی و با استفاده از شیوه مشاهده مستقیم انجام گرفت. پس از مرور پژوهش های مرتبط، کلیدواژه های کاوش در قالب یک سیاهه بر اساس ویژگی های نوشتاری و معنایی زبان فارسی شکل گرفت. هر یک از این کلیدواژه ها در موتورهای کاوش مورد مطالعه شامل دو موتورکاوش معمولی گوگل و بینگ و موتور کاوش معنایی داک داک گو که در زمرهء موتورهای کاوش پراستفاده هستند و قابلیت جستجوی تصاویر به زبان فارسی را نیز فراهم نموده اند، جستجو و تعداد نتایج بازیابی شده مرتبط و غیر مرتبط ثبت گردید. سپس جامعیت و دقت نتایج جستجو در هر موتور کاوش محاسبه و به بررسی میزان ربط تصاویر بر اساس این ویژگی ها در هر یک از موتورهای کاوش مورد مطالعه پرداخته شد. برای تجزیه و تحلیل داده ها از انواع فنون آماری توصیفی به همراه آزمون کلموگروف-اسمیرنوف، شاپیرو-ویلک، کروسکال-والیس و فریدمن استفاده شد. یافته های پژوهش نشان داد موتورهای کاوش مورد مطالعه نسبت به ویژگی های نوشتاری و معنایی زبان فارسی توجه کافی ندارند و بسیاری از این ویژگی ها را در هنگام جستجو و بازیابی تصاویر نادیده می گیرند. در پژوهش حاضر، موتور کاوش گوگل از جامعیت و دقت بالاتری نسبت به دو موتور کاوش دیگر برخوردار بود و علیرغم ادعای موتورهای کاوش معنایی مبنی بر فراهم آوری اطلاعات با کیفیت تر و مرتبط تر نسبت به دیگر موتورهای جستجو، موتور کاوش داک داک گو عملکرد مطلوبی در زمینه بازیابی تصاویرمرتبط با بخش نوشتاری و معنایی زبان فارسی از خود نشان نداد. همچنین بین میزان جامعیت و دقت سه موتور کاوش مورد پژوهش اختلاف معناداری وجود دارد.

    کلیدواژگان: بازیابی تصاویر، ربط، جامعیت، مانعیت، موتورهای کاوش، زبان فارسی
  • المیرا خانلرخانی، مهدیه میرزابیگی*، هاجر ستوده، مسعود فضیلت پور، محمد نامی صفحات 671-712

    مطالعه ی رفتارکاربر بر اساس رویدادهایی که در مغز انسان و در مراحل مختلف رفتار اطلاع جویی رخ می دهد؛ علی رغم نوپایی روش شناختی، مورد استقبال پژوهشگران حوزه ی اطلاعات واقع شده است. در پژوهش حاضر تلاش شده است تا با روش مرور نظام مند، وضعیت پژوهش های انجام گرفته در عرصه ی رفتار اطلاع جویی از طریق مطالعه ی امواج مغزی بررسی شود و با شناسایی خلاء های پژوهشی، پیشنهادهایی برای پژوهش های پیش رو ارایه گردد. در این راستا، از ساختار مرور نظام مند کیتچنهام و چارترز (Kitchenham & Charters 2007) استفاده شده است. با اجرای جستجو در پایگاه های اطلاعاتی علمی به زبان انگلیسی و فارسی، در نهایت 22 منبع انگلیسی و یک منبع فارسی در بازه ی زمانی سال های 2007 تا 2020 یافت شد. در بررسی متون، برخی از مفاهیمی که فصل مشترک پژوهش ها بودند، گروه بندی شده و مبنای دسته بندی موضوعی قرارگرفتند. با مرور پژوهش ها، مشخص شد که بررسی «وضعیت ذهنی کاربر» (10 پژوهش) و «فعالیت امواج مغزی در مراحل مختلف رفتار اطلاع جویی» (12 پژوهش)، رویکردهای غالب موضوعی می باشند. دو مولفه ی «بار شناختی» و «سبک شناختی» به عنوان عوامل تاثیرگذار بر وضعیت کاربر شناسایی شدند. «نوع رسانه ی جستجو»، «قالب نمایش اطلاعات» و «شیوه ی خواندن متن» به عنوان سه عامل تاثیرگذار بر ایجاد بار شناختی در هنگام جستجو و پردازش اطلاعات تعیین شدند. ازآنجایی که روش مورد بررسی در این پژوهش، امواج مغزی بود؛ با مطالعه ی پژوهش ها مشخص شد که به دلیل اهمیت حرکات چشم در زمان خواندن، و نقش جدایی ناپذیر آن در فرآیند جستجوی اطلاعات، داده های چشمی نیز دارای اهمیت می باشند. تحلیل امواج مغزی و اتساع مردمک چشم، از مهم ترین سنجه های مورد استفاده در مطالعه ی وضعیت کاربر هنگام جستجو، و «امواج آلفا و تتا» به عنوان شاخص اندازه گیری سطح بار شناختی در فرآیند اطلاع جویی شناخته شدند. همچنین، داده های حاصل از حرکات چشم در هنگام رفتارهای جستجو، و به موازات آن میزان دشواری تکالیف که کاربر در حین جستجو احساس می کند؛ با سبک شناختی کاربران دارای همبستگی بود و درنتیجه ی آن، مشخص شد که انواع مختلفی از رفتارهای اطلاع جویی قابل طبقه بندی و شناسایی است. مراحلی که فعالیت مغزی کاربران در فرآیند اطلاع جویی مورد مطالعه قرار گرفته اند؛ به ترتیب عبارت بودند از «کاوش و فرمول بندی پرسش»، «فرمول بندی دوباره پرسش و انتخاب آن»، «تصمیم گیری و قضاوت درباره ی ربط». نتایج پژوهش ها نشان از تفاوت فعالیت نواحی مختلف مغزی، تغییر سطح اتساع مردمک چشم و تغییر در بسامد «امواج آلفا و بتا» در این سه مرحله از جستجو داشت. پیشنهادهای مطرح برای پژوهش های آتی با کمک مطالعه ی امواج مغزی و دستگاه الکتروآنسفالوگرافی، عبارت بودند از: بررسی رابطه همبستگی میان سبک شناختی با ویژگی های مربوط به تکلیف و دانش زمینه ای در فرآیند رفتار اطلاع جویی، توسعه ی سامانه های شخصی سازی بازیابی اطلاعات با همکاری بیشتر میان متخصصان حوزه اطلاعات و علوم اعصاب، پژوهش در احساسات، خشم و خستگی هنگام رفتار اطلاع جویی با رویکرد مطالعه ی مغزی، استفاده از روش های اقتصادی و ابزارهای قابل حمل برای کاهش هزینه های پژوهشی، ایجاد زیرساخت هایی با هدف افزایش تعداد جامعه ی آماری، و طراحی تکالیف استاندارد در زمینه ی پژوهش های مغزی. از خلاءهای پژوهشی مطرح شده، می توان به نیاز به پژوهش بیشتر برای درک مفاهیم پیچیده ای مانند ربط از طریق تحلیل امواج مغزی در فرآیند اطلاع جویی، و مطالعه ی احساسات کاربر با رویکردهای تلفیقی اشاره نمود.

    کلیدواژگان: رفتار اطلاع جویی، امواج مغزی، الکتروآنسفالوگرافی (EEG)، مولفه های شناختی، مرور نظام مند
|
  • Rahman Sharifzadeh * Pages 339-368

    The ethical significance of information technology due to its increasing intertwining with social life has led associations and organizations such as ACM and I-EEE to develop ethical principles and codes for the IT profession and to update them from time to time. Although these principles and codes are helpful as general ethical guidance, in some complex situations they lose their effectiveness due to the conflict that may occur between the principles and consequently the codes. In this paper, we will attempt to suggest a normative model to help ethical decision-making in such situations. This model can help to respond to problems of allowing evil and appealing to evil in IT profession. In addition to explaining and responding to some important ethical dilemmas in the field of applied ethics, we will apply it in at least six ethically important themes in IT profession, including self-driving cars, privacy and security, cyber-attacks, ransomware, and the Internet of Things. In each we will show how the model can help the moral agent in making moral decisions. However, we will not claim that this model acts as a decision-making logic, since the process of reaching a moral decision is not algorithmic and many cognitive and non-cognitive factors play a role in it.

    Keywords: Information Technology, Ethical Principles, Ethical Codes, Ethical dilemmas
  • Elahe Akhavanhariri, Ali Mansouri*, Hossein Karshenas Najafabadi Pages 369-396

    Identification of hot topics in research areas has always been of interest. Making smart decisions about what is needed to be studied is always a fundamental factor for researchers and can be challenging for them. The goal of this study is to identify hot topics and thematic trend analysis of articles indexed in Scopus database in the field of Knowledge and Information Science (KIS), between 2010 and 2019, by Text Mining techniques.The population consists of 50995 articles published in 249 journals indexed in Scopus database in the field of KIS from 2010 to 2019. To identify thematic clusters, algorithms of Latent Dirichlet Allocation (LDA) technique were used and the data were analyzed using libraries in Python software. To do this, by implementing the word weighting algorithm, using the TF-IDF method, and weighting all of the words and forming a text matrix, the topics in the documents and the coefficients for assigning each document to each topic (Theta) were determined. The output of the LDA algorithm led to the identification of the optimal number of 260 topics. Each topic was labeled based on the words with the highest weight assigned to each topic and with considering of experts’ opinions. Then, Topic clustering, keywords and topics identification were done. By performing calculations with 95% confidence, 63 topics were selected from 260 main topics. By calculating the average theta in years, 24 topics with a positive trend or slope (hot topic) and 39 topics with a negative trend or negative slope (cold topic) were determined. According to the results, measurement studies, e-management/ e-marketing, content retrieval, data analysis and e-skills, are considered as hot topics and training, archive, knowledge management, organization and librarians' health, were identified as cold topics in the field of KIS, in the period 2010 to 2019. The analysis of the findings shows that due to the interest of the most researchers in the last 10 years in using of emerging technologies, technology-based topics have attracted them more. In contrast, basic issues are less considered to be developed.

    Keywords: Hot Topics, Latent Dirichlet Allocation (LDA), Text Mining, Knowledge, Information Science
  • Mila Malekolkalami, Mohammad Hassanzadeh*, Atefeh Sharif, Mansour Rezghi Ahaghi Pages 397-428

    The development of innovation in the service sector is a complex process that is affected by various factors, and the service sector due to its commercial nature must be updated in its innovative processes. Since knowledge innovation is required, knowledge extraction is essentially required to achieve goals and innovation in the industry. Appropriate and timely knowledge leads the industry to increase its productivity and level of innovation. This article is intended to provide a model for knowledge extraction in the service industry. For this purpose, the grounded theory model has been used, which is applied in terms of purpose and qualitative research in terms of collecting information. The population includes experts and managers in the service industry and the sample is due to the theoretical saturation of 14 people who were selected in a purposive sampling. The data collection tool, in the qualitative section, was a semi-structured interview. To confirm the accuracy of the data, the validity of the study was used by the research members. In this study, to calculate the reliability, the method of intercoder agreement has been used. The percentage of thematic agreement confirms encodings with 80% reliability. ATLAS.TI software was used for coding. After analyzing the data, a knowledge extraction model was extracted for the service industry. Based on this, 122 concepts and 18 sub-categories have been categorized using the Strauss and Corbin paradigm model. These factors were divided into 18 categories in the common model of grounded theory, which are: causal conditions (infrastructure and technological factors, structural factors, human resources, organizational culture, support of senior managers), contextual conditions (organizational strategic knowledge, management Organizational communication, support for intelligent knowledge extraction system), strategic (knowledge commercialization strategies, creativity strategies, innovative strategies), interventionist conditions (personal characteristics, financial factors, managerial factors), consequences (value creation, advantage) Competitive, globalization, growth, and maturity). Therefore, according to the results of this study, vital resources in the service industry can be identified to extract knowledge in a timely and appropriate manner, and the knowledge obtained from this extraction can be used to create a competitive advantage in domestic and foreign markets.

    Keywords: Knowledge Extraction, Innovation, Service Sector, Knowledge Management, Grounded Theory
  • Afrooz Hamrahi*, Roya Pournaghi, Dariush Matlabi Pages 429-456

    The main object of this study is analyzing the components and indicators of the scholarly Publication System in the scholarly Publication databases in terms of access, communication, control, infrastructure, language, materials (information resources), support, technology, economics, evaluation, education, ethics and their characteristics. The research community has been identified by content analyzing and 73 databases were extracted, based on the frequency and approval of experts the sample limited to 12 scholarly publication databases. These include the ArXiv, DOAJ, Elsevier, Springer, Google Scholar, PubMed, Nature, Web of Science, Scopus, National Institutes of Health (NIH), SPARC (Scholarly Publishing and Academic Resource Coalition), and Amazon databases. The checklist designed to study these databases is taken from the scholarly Publication System dimensions. Research findings show that all components have been considered in publication databases and the difference between them returned in scholarly Publication indicators. however, according to the type, age and general policy of the databases, some indicators of components; Like education, economics, and information resources has not received enough attention, in all databases, some components such as technology, support and control and their indicators have an equal importance.

    Keywords: Scholarly Publication Databases, Information Databases, Scholarly Publication, Scholarly Publication System, Information System, Scientific Publications
  • Mina Rezaei Dinani* Pages 457-482

    The aim of this study was to explain the application of text corpus tagging method in Sense disambiguation from specialized homographs and increasing the retrieval F-Measure of scientific texts containing such homographs. This is an experimental study. Specialized homographs were identified by direct observation and morphological analysis of the word. The research sample consisted of 442 scientific articles of two groups of experimental group and control group. The control group had 221 full-text articles without tags and the experimental group had same 221 tagged articles, which were tested in the information retrieval system to measure the effectiveness of tagging in word sense disambiguation from specialized homographs. The level of significance of the Wilcoxon signed-rank test showed that the F-Measure of retrieval results of specialized homographs after using the tagged specialized text corpus in the information retrieval system is significantly different than before. Examination of negative and positive rankings showed that the F-Measure of the results after using the tagged specialized text corpus has increased significantly and has reached its maximum level of 1. The findings of the present study showed that there is not necessarily an inverse relationship between recall and precision, and the two can reach their maximum level of 1. The better efficiency of the retrieval system using this approach is due to the empowerment of the retrieval system in distinguishing between specialized homographs and identifying their semantic roles by using semantic tags as training data that were considered in the test and training set. Embedding the training set in the structure of the retrieval system provides additional information to serve the retrieval system to distinguish between the various meanings of specialized homographs. This tool is one of the elements that causes the optimal quality of retrieval and leads the information retrieval system from word-driven retrieval to content-driven retrieval when retrieving texts containing specialized homographs.

    Keywords: specialized homograph, Information retrieval, Tagging, text corpus, F-Measure
  • Abbas Sadeghi Pouryani, Marzieh Zarinbal* Pages 483-514

    Context-aware systems serve the user by providing information that aligns with the preferences and context of the user. This study aims to recognize the contexts related to the entities of electronic theses and dissertations. Research is of the qualitative type that has used the documentary research method to find concepts, make coding, and classify contexts. The contribution of this research in increasing knowledge is to recognize the contexts of the users, electronic theses, and dissertation "ETD" and the system entities. The findings showed that the contexts of users are classified into 10 categories: user identity, interests and preferences, activities and history, social communication, computer context, user locations, user times, user access level, user status, and physical environment. The contexts of ETD have 8 categories: ETD identity, access level, audiences, activities and events, ETD content, time, place, and physical format of ETD. System contexts were grouped into 8 categories: system characteristics, user interaction capabilities, indexing capability, systems communication, user’s data storage, computing context, activity, and location. Conducting this research gives developers and decision-makers of ETD systems knowledge of contexts to redesign the system by considering the capabilities of context-aware systems to respond to users' needs, recommend documents, retrieve user-oriented documents, and develop system compatibility procedures. In the present study, we have tried to recognize all the contexts in an ETD system, and not only the user contexts but also the ETD contexts and the system contexts have been considered. context-aware ETD developers need some of the recognized contexts based on the type of context-aware services

    Keywords: context, context-aware systems, electronic theses, dissertations (ETDs), human-computer interaction
  • Hassan Ghaffari, Baqer Kord*, NourMohammad Yaghoubi, Abdolali Keshtegar Pages 515-542

    In recent years, organizations in the public and private sectors have been faced with large volumes of structured and unstructured data that require a big data governance framework. Big data governance, by using environment monitoring and data collection, data storage and data analysis, provides the information needed by organizational decision makers. Establishing a big data governance framework enables organizations in the public and private sectors to make better decisions based on evidence and insight. Therefore, the purpose of this study is to investigate the mentality of experts in the field of establishing big data governance and for this purpose, Q methodology has been used. The statistical population of the present study included experts of government organizations and based on purposive sampling; 38 experts were selected for the study. In the present study, the discourse atmosphere included authentic domestic and foreign books and articles and semi-structured interviews. The number of propositions that were identified in the discourse atmosphere included 52 propositions, and by modifying and removing duplicate propositions, 48 final propositions were identified. Then, each of the Q propositions was numbered and the experts were asked to sort the number of each Q proposition in the Q diagram. Exploratory factor analysis and correlation matrix used to analyze the resulting data from the discourse atmosphere. Cronbach's alpha test, KMO index and Bartlett test used to evaluate the validity and reliability of the research method. The results of the present study showed three types of mentality that the total amount of variance explained was equal to 80.81%. The percentage of explained variance was 30.59% for the first type, 26.31% for the second type, and 23.90% for the third type. Evaluation of propositions related to the mentality of expert’s shows that most experts emphasize the results of establishing big data governance; They emphasize such things as facilitating knowledge flow, efficient and effective decision making, innovative performance, strengthening teamwork, and strategic planning and analysis. Experts, on the other hand, focus on drivers such as information technology, data control and oversight, structural mechanisms, democratization capacity, and legal capacity. In general, to take advantage of big data governance in public organizations and reduce the data gap, there must be coordination and consistency between the propositions and the results of establishing big data governance, and this research can serve as a stepping stone to this.

    Keywords: Big data, big data governance, typology of the mentality of experts, Q methodology
  • Mohsen Rajabzadeh, Shaban Elahi*, Alireza Hasanzadeh, Mohammad Mehraeen Pages 543-570

    The supply chain for perishable products, especially agricultural goods, has always been one of the most important and challenging management issues at different times. Because, at all stages of the agricultural production process, unsafe and unsanitary factors may endanger the health of agricultural products. In addition, one of the key problems of the agricultural supply chain is the high volume of products wasted throughout the whole supply chain. For example, in Iran, as a developing country, about 30% of all agricultural products are wasted annually. The high volume of agricultural waste is especially important concerning wheat products as a political and strategic product. The results of some studies show that a large amount of wheat waste in developing countries is due to the widespread use of traditional methods in the storage process. Therefore, the application of emerging technologies such as the Internet of Things (IoT) can be an effective solution to this kind of problem. However, there are shortcomings in the IoT deployment in the supply chain, especially in the logistics sector, and researchers need to cover theoretical gaps in this area through modeling and optimization. Therefore, the present study intends to emphasize this important research issue for the first time in Iran using the Action Design Research approach. The most important findings of this research include the conceptual data model, the logical model of the database, and the physical data model for the IoT deployment in the storage section of the wheat supply chain, which has been designed and validated with the participation of industry and software engineering experts. The models designed in this research can be useful for the implementation of IoT technology in wheat storage centers and food factories. The findings of this study can provide a good guideline for officials and decision-makers to deploying IoT in the field of wheat storage.

    Keywords: Agricultural supply chain, IoT, Action Design Research, Agricultural Products, Wheat
  • Omid Bashardoust, Ezattollah Asgharizadeh*, Mohammadali Afsharkazemi Pages 571-606

    The accumulated volume of customer information due to the growth and development of information technology and the creation of databases has led companies that want to provide better services to their customers to benefit from new tools for customer relationship. One of these tools and methods is data mining techniques that can play an important and key role in customer relationship management. The purpose of this study is to analyze customer value with a combined data mining approach based on the WRFM model.  So 64858 samples from customer database in the period 2019-2020 have been selected by available purposive sampling method. The weight of WRFM attributes has been determined by surveying 3 experts of the company using a hierarchical analysis process. Based on the initial variables of the research and the variables obtained from the attributes of the WRFM model, the purchase value of customers has been analyzed. SPSS Modeller and SPSS software were used to analyze the data.The results show that the K-Means clustering method has a better performance in customer segmentation than the TwoStep clustering and the Cohonen neural network methods. Finally, based on the criteria of purity percentage, repetition, error rate and Normalized Mutual Information (NMI (index, six clusters with NMI (0.631) were selected from different K-Means clustering.This study introduces the WRFM model for customer value analysis.The weight of the attributes of this model is based on a survey of experts and using a hierarchical analysis process based on the degree of incompatibility (0.052) obtained from the hierarchical analysis method (0.15), (0.29) and (0.56), respectively, have been determined that these values ​​indicate the greater importance of the monetary value index than the other two indices; Finally, these six clusters were divided into 4 general categories using naming market segments methods in research (Chang and Tsai 2004; Babaian and Sarfarazi 2019): key and special customers, golden potential customers, missing uncertain customers and new uncertain customers. According to the research model, the company should focus more on its specific and key customers, ie customers who are in the first, third and fifth clusters, ie loyal customers who have higher than average values in the two attributes of monetary value and frequency and recently they have had purchases with a high value of Rials that the company should consider effective marketing strategies for this group of customers due to its limited resources in order to lead to more profitability for the company while maintaining customer relationship management.

    Keywords: Clustering, Cohonen Neural Net, Customer Relationship Management, Customer Value Analysis, Data Mining, WRFM Model
  • Zeinab Rahimi, Mehrnoush Shamsfard* Pages 607-638

    Recognizing causal elements and causal relations in the text is among the challenging issues in natural language processing (NLP), specifically in low-resource languages such as Persian. In this research, we prepare a causality human-annotated corpus for the Persian language. This corpus consists of 4446 sentences and 5128 causal relations. Three labels of Cause, Effect, and Causal mark are specified to each relation, if possible. We used this corpus to train a system for detecting causal elements’ boundaries.Also, we present a causality detection benchmark for three machine-learning methods and two deep learning systems based on this corpus. Performance evaluations indicate that our best total result is obtained through the CRF classifier, which provides an F-measure of 0.76. In addition, the best accuracy (91.4%) is obtained through the BiLSTM-CRF deep learning method

    Keywords: PerCause, Causality annotated corpus, causality detection, deep learning, CRF
  • Yaghub Norouzi*, Hoda Homavandi, Bent-Ol Hoda Khabbazan Pages 639-670

    The aim of this study was to investigate the image retrieval from selected search engines according to the written and semantic features of Persian language and determine their relevance using recall and precision formulas and to identify the most efficient search engine in retrieving images in Persian and by survey-analytical method. It was done using direct observation technique. After reviewing related researches, search keywords list was formed in the form of a checklist based on the written and semantic features of Persian language. Each of these keywords in the studied search engines, including two general search engines Google and Bing and Duckduckgo semantic search engine, which are among the most used search engines and have also provided the ability to search for images in Persian, search and the number of relevant and unrelated retrieved results were recorded. Then, the recall and precision of search results in each search engine were calculated and the relevance of images based on these features in each of the studied search engines was investigated. A variety of descriptive statistical techniques were applied to analyze the data along with Kolmogorov-Smirnov, Shapiro-Wilk, Kruskal-Wallis and Friedman tests. Findings demonstrated that Google, Bing and Duckduckgo search engines do not pay enough attention to the written and semantic features of Persian language and many of these features are ignored while searching and retrieving images. In the present study, Google search engine had a higher recall and precision than the other two search engines, and despite the claim of semantic search engines to provide better and more relevant information than other search engines, Duckduckgo search engine did not show good performance in retrieving images related to the written and semantic part of Persian language. There is also a significant difference between the recall and the precision of the three studied search engines.

    Keywords: Image Retrieval, Relevance, Recall, Presidion, Search Engines, Persian Language
  • Elmira Khanlarkhani, Mahdieh Mirzabeigi*, Hajar Sotudeh, Masoud Fazilat-Pour, Mohammad Nami Pages 671-712

    Despite the novelty in methodologies, User behavior study based on brain activity during information-seeking stages has become popular among information science researchers. This paper reviews scientific publications in which information-seeking behavior has been studied along with recorded brain activity to shed light on research status, challenges, and suggestions for future studies. Based on Kitchenham & Charters (2007) framework, a complete web search was performed in English and Persian scientific databases, and 22 publications in English were found as the final result, from 2007 to 2020. Review results demonstrate that exploring the user status (10 papers) and brain wave activity during information-seeking episodes (12 papers) were the most dominant subjective approaches in the field of user behavior studies. Cognitive load was found as an effective cognitive component on user status. With eye movement measurement and brain waves frequency study, 3 factors were found effective on cognitive load level generated during information searching and processing: searching media type, information representation, and text reading style. Brain wave activity and pupil dilation analysis were the most important measures in user status during search stages, and alpha and theta band waves were demonstrated as an index for cognitive load measurement during the information searching process. A correlation among eye data, search behavior, task complexity based on user experience, and cognitive style – as another effective factor on user status- led to results in different information searching behavior demonstrations. Also, 3 main stages were analyzed in the information-seeking process, based on brain wave activity: information exploring and query formulation, query reformulation and selection, relevance judgment, and decision making. Results showed a difference between brain activity areas, and differences in pupil dilation change level and alpha/beta frequency level during different search episodes. For future research, some suggestions were offered based on reviews. Finding relations between correlations among cognitive styles, task features, and domain knowledge during information searching process, personalized information retrieval improvement, more collaboration between information science and neurocognitive specialists, research in more user affective status like aggression and fatigue during the search process, using more economic methods and portable devices aiming to reduce research costs and expenses, facilitating larger sample studies and designing standard tasks were considered as a suggestion. Finally, some challenges were found based on reviewed studies. Some concepts like relevance feedback in information retrieval need more investigation. Also, it is necessary to investigate and explore user affections during the search process with multiple approaches.

    Keywords: Information-seeking behavior, Brain waves, Electroencephalography (EEG), cognitive components, systematic review