فهرست مطالب

پردازش و مدیریت اطلاعات - سال سی و هشتم شماره 3 (پیاپی 113، بهار 1402)

پژوهشنامه پردازش و مدیریت اطلاعات
سال سی و هشتم شماره 3 (پیاپی 113، بهار 1402)

  • تاریخ انتشار: 1402/01/01
  • تعداد عناوین: 12
|
  • رحمان شریف زاده* صفحات 715-744
    هدف این مقاله شناسایی چالش های اخلاقی راهنمایی رساله ها و پایان نامه و تدوین کدهای اخلاقی متناسب با این چالش هاست. فرایند رسیدن به این هدف، دارای چهار گام تعیین اصول اخلاقی، استخراج چالش های اخلاقی، بررسی ارتباط چالش ها با زمینه دانشگاهی ایران،  و تدوین کدهای اخلاقی راهنمایی رساله ها و پایان نامه ها بوده است. بر این اساس، در گام نخست مجموعه ای از اصول اخلاقی که می توانند زیربنای اخلاقی حرفه راهنمایی پژوهش باشند معرفی و توجیه می شود. در گام دوم چالش های راهنمایی پژوهش را از ادبیات موضوع، پژوهش ها و همچنین آیین نامه های دانشگاه های متعدد، استخراج می شود. در گام سوم با نظرسنجی از تعدادی از اعضای هییت علمی و دانشجویان/فارغ التحصیلان تحصیلات تکمیلی، در قالب تکنیک دلفی، به این سوال پاسخ می دهیم که این چالش ها چه اندازه در زمینه دانشگاهی ایران نیز رخ می دهند، و همچنین چه چالش های دیگری را می توان به چالش های استخراج شده اضافه کرد. نتایج این گام حاکی از ارتباط بالای این چالش ها با زمینه ایران هستند. باتوجه به اینکه استادان و دانشجویان به عنوان دو ذینفع اصلی حرفه راهنمایی پژوهش در این پژوهش مشارکت داشتند امکان مقایسه چشم انداز اخلاقی آن ها با هم فراهم بود. در برخی موارد، دانشجویان و اساتید دیدگاه های واگرایی نسبت به میزان اهمیت و وقوع برخی از چالش ها داشتند. درنهایت، در گام چهارم، بر اساس چالش های به دست آمده و متناسب با مصادیق آن ها،  36 کد مستقل برای مجموعه چالش های تدوین، و ارتباط و جامعیت کدها با کمک یک گروه کانونی سنجیده شد.
    کلیدواژگان: اخلاق راهنمایی، استاد راهنما، چالش های اخلاقی، پایان نامه، رساله
  • سودابه نوذری* صفحات 745-781
    : برای اصطلاح «انتولوژی» ماخوذ از فلسفه، معادل های مختلفی در متون غیرفلسفی (هوش مصنوعی، علوم اطلاعات، وب معنایی و جز آن) انتخاب شده است. گذشته از انتخاب شکل آوانگاری شده این اصطلاح، نگاهی به معادل ها نمایانگر آشفتگی واژگانی برای هر دو بخش آن («هستی» و هستان» در قسمت نخست، و « شناسی»، « نگاری» و «نگاشت» در قسمت دوم) است. هدف پژوهش حاضر بررسی وضعیت موجود این آشفتگی، چرایی انتخاب معادل های مختلف، و سرانجام، رسیدن به معادلی مناسب، دقیق و مستند است. برای تعیین وضعیت و نیز درستی معادل های انتولوژی از روش سندی-کتابخانه ای به شیوه کمی و کیفی استفاده شد. در این راستا دو نوع متن کاویده شد: 1) متون غیرفلسفی فارسی تالیفی یا ترجمه ای با موضوع انتولوژی در حوزه هایی چون هوش مصنوعی، علوم اطلاعات، وب معنایی و 2) متون فلسفی دربردارنده آرای «مارتین هایدگر» درباره هستی .
    با بررسی 112 متن فارسی غیرفلسفی، نتیجه قابل انتظار اختصاص بیش از نیمی از معادل ها به «هستی شناسی» به دست آمد که ترجمه دقیق «انتولوژی» است، اما سیر نزولی انتخاب این معادل و تمایل بیشتر نگارندگان به استفاده از «هستان شناسی» و «هستان نگاری» در سال های اخیر، نشانگر درک تفاوت معنای این مفهوم در دو حوزه فلسفی و غیرفلسفی است؛ اما اغلب نگارندگان متون فارسی، از اشاره کوتاهی به این مضمون که «هستی شناسی» از فلسفه آمده، فراتر نرفته و انگشت شمار، سبب انتخاب معادل را بیان کرده اند. در مورد قسمت دوم اصطلاح، دلایل «حری»، «فدایی» و «لینچ» تردیدی در پذیرش «نگاری» و ترجیح آن بر «شناسی» باقی نمی گذارد. اما درباره قسمت اول اصطلاح، با توجه به تاکید «هایدگر» بر تفاوت «هستی یا وجود» در فلسفه با «هستنده یا موجود » در علم، همچنین، کاربرد همزمان «هستان» و «هستی» با معنای متفاوت در ابیات برخی شاعران و نیز استفاده قابل توجه از «هستان» در کنار کاربرد بسیار «هستی» در متون فارسی غیرفلسفی، شاید بتوان «هستان» را به «هستی» ترجیح داد و «هستان نگاری» را برای متون غیرفلسفی پیشنهاد کرد.
    نقد «هایدگر» به مقوله بندی «ارسطو» برای یکپارچه سازی همه حالت های ممکن «هستی»، دقت بیشتری را در بهره گیری و استناد به نظریه «ارسطو» در نوشته های غیرفلسفی می طلبد.
    نگارنده با وجود دلایل پیش گفته و حتی وجود منابع چشمگیر در زمینه مطالعات علم و فناوری و «چرخش به هستی شناسی»، سوالی را مطرح می کند: آیا اساسا این اصطلاح برای آنچه در رشته های غیرفلسفی انجام می شود، مناسب است؟ آیا نمی توانستیم بدون وام گیری از فلسفه اصطلاح مستقلی برگزینیم؟ پاسخ به این سوال، پژوهشی مستقل را در منابع مرتبط انگلیسی و فارسی و به ویژه زبان شناسی و نیز متون نثر و نظم فارسی می طلبد.
    کلیدواژگان: انتولوژی، هستی و هستان، شناسی و نگاری، معادلگزینی، مارتین هایدگر، علم اطلاعات و دانش شناسی، مطالعات علم و فناوری، چرخش به هستیشناسی
  • صبا صارمی نیا*، فاطمه امینی صفحات 783-823
    کسب و کارهای فعال در شبکه های اجتماعی، با شناسایی مولفه های تاثیرگذار بر ابعاد مشارکت مشتریان، تجزیه و تحلیل داده های تولید شده توسط آن ها و فعالیت های بازاریابی می توانند با دست آوردن درک دقیق تری از مشارکت مشتری در شبکه های اجتماعی و در نتیجه تدوین استراتژی های موثرتر در جذب مشتری، در جهت تقویت کسب و کار خود فعالیت کنند. در این پژوهش «هستی شناسی مشارکت مشتری در شبکه های اجتماعی از منظر نیاز مشتری و الزامات کسب وکار» با استفاده از مرور سیستماتیک ادبیات پژوهش و تحلیل محتوایی آنها در دو بعد اصلی ارایه شده است: "مولفه های مشارکت از منظر مشتری" و دسته بندی این زیرمولفه ها از منظر عملکردی و محتوایی در کسب و کار بصورت: "مولفه های مشارکت از منظر کسب و کار"؛ به نحوی که یک رابطه دو سویه بین مشتری و کسب و کارهای فعال در شبکه های اجتماعی ارایه می نماید. لایه مولفه های مشارکت از منظر مشتری در سه لایه"رفتاری"، "شناختی" و "عاطفی" ارایه شده است؛ این مولفه ها تاثیر تمرکز روی 30 زیرمولفه از فعالیت های کسب و کارهای فعال و سایر مشتریان در شبکه های اجتماعی روی مشارکت مشتری را اندازه گیری می کنند. علاوه بر آن، زیرمولفه های مذکور از منظر عملکردی و محتوایی در کسب و کار، تحت قالب لایه"مولفه های مشارکت از منظر کسب و کار" در 7 زیرگروه دسته بندی و ارایه شده اند: "تبلیغات مبتنی بر ارزش عملکردی"، "محتوا"، "زیبایی شناسی و سفارشی سازی"، "روانشناختی-اجتماعی"، "زمانی و زمین ه ای"، "تعامل" و "فناوری". در پایان هستی شناسی پیشنهادی با استفاده از تحقیقات پیمایشی با بهره مندی از نظرات کاربران و مشتریان در شبکه های اجتماعی مورد ارزیابی قرار گرفته است. در این مرحله با نمونه گیری هدفمند و استفاده از یک پرسشنامه آنلاین، مولفه های مشارکت از منظر کسب و کار، بعنوان شاخص اندازه گیری مشترک میان دو دیدگاه مشتری و کسب و کار محور ارزیابی شدند. زیرمولفه های هستی شناسی پیشنهادی بر اساس آزمون فریدمن پذیرفته شد و نتایج تحلیل آماری نشان می دهد که لایه های آن با اطمینان 95% همگن هستند و لایه "تبلیغات مبتنی بر ارزش عملکردی" بیشترین تاثیر را در افزایش مشارکت مشتری به دنبال دارد.
    کلیدواژگان: آنتولوژی، مشارکت مشتری، شبکه های اجتماعی
  • الهام علایی ابوذر* صفحات 825-900
    ابهام، یکی از چالش های بزرگ در پردازش زبان طبیعی است؛ در پردازش رایانه ای متون، هم نگاره ها و چگونگی رفع ابهام از آن ها از اهمیت بالایی برخوردار است. در زبان هایی مانند زبان فارسی که ساخت واژه پیچیده ای دارند، هم نگاره های بسیاری ساخته می شوند. در این راستا شناخت هم نگاره ها و دسته بندی انواع آن ها بسیار مهم است. در پژوهش حاضر به منظور بررسی پیکره-بنیاد هم نگاره های فارسی، واژه هایی که بیش از یک برچسب اجزای واژگانی کلام داشتند، از پیکره متنی فارسی استخراج شدند که شامل 10978 واژه است. سپس، فراوانی برچسب های هر هم نگاره مورد بررسی قرار گرفت و فهرست دیگری استخراج شد که شامل هم نگاره هایی است که علاوه بر فراوانی بالای برچسب اول آن ها (بیش از 20) فراوانی برچسب دوم آن ها نیز در پیکره متنی فارسی بیش از 10 بوده است؛ این فهرست شامل 1675 هم نگاره است. ماهیت ساخت واژی، آوایی یا معنایی هم نگاره های استخراج شده در این مرحله مورد بررسی قرار گرفت و بر اساس آن هم نگاره های استخراج شده در یازده دسته طبقه بندی شدند که از میان آن ها، تنها هم نگاره های موجود در یک دسته بر اساس معیار معنایی طبقه بندی شده اند و بقیه بر اساس ویژگی های ساخت واژی و تفاوت ها آوایی آن ها در دسته های گوناگون قرار گرفته اند. نتایج این پژوهش شامل فهرست گسترده ای از هم نگاره های فارسی استخراج شده از پیکره متنی فارسی است که هر کدام بر اساس معیارهای ساخت واژی و آوایی در یک یا بیش از یک دسته از مجموع یازده دسته قرار گرفته اند، این فهرست و دسته بندی مربوط به هم نگاره ها می تواند در سیستم های رفع ابهام معنایی از واژگان مورد استفاده قرار گیرد.
    کلیدواژگان: ابهام، هم نگاره، برچسب اجزای واژگانی کلام، ویژگی های ساخت واژی هم نگاره ها
  • مرتضی رضائی شریف آبادی، امیرسعید مولودی*، علیرضا احمدی، علیرضا خرمایی صفحات 901-926
    واژه های علمی واژه هایی هستند که در طیف وسیعی از رشته های علمی بسامد بالایی دارند و بسامدشان در متون علمی بسیار بیشتر از بسامدشان در سایر متون است. دسترسی به فهرستی بسامدی از واژه های علمی می تواند به یادگیری سریع تر زبان علمی کمک کند. پیش نیاز تهیه چنین فهرستی، ایجاد پیکره ای متوازن از متون علمی فارسی است. برای این منظور، متون علمی منتشرشده در نشریات علمی فارسی با برنامه نویسی رایانه ای و توسعه خزنده وب جمع آوری شد. در نهایت پیکره ای شامل بیش از 51 میلیون واژه با حجم متوازنی از داده در چهار حوزه موضوعی شامل «علوم پایه و فنی و مهندسی»، «علوم انسانی و هنر و معماری»، «پزشکی و دامپزشکی» و «کشاورزی و منابع طبیعی» ساخته شد. در این پژوهش پس از بررسی ملاحظات مربوط به توسعه فهرست های بسامدی علمی، فهرستی از واژه های علمی فارسی تهیه شد که شامل 307 بن واژه است که در متون علمی بسامد بالایی دارند، بسامدشان در متون علمی به مراتب بیش از متون عمومی است و پراکندگی مناسبی در موضوعات مختلف علمی دارند. نتایج ارزیابی فهرست بسامدی تهیه شده نشان دهنده پوشش بیش از 16 درصدی فهرست روی متون علمی است که این درصد با پوشش فهرست های جمع آوری شده برای زبان های دیگر مطابقت دارد. همچنین توزیع مناسب واژه های فهرست جمع آوری شده در چهار حوزه موضوعی پیکره باعث شده است که میزان پوشش در هر یک از این حوزه های موضوعی نیز عددی قابل قبول بین 12 تا 18 درصد باشد. فهرست واژه های علمی استخراج شده می تواند برای اهداف مختلف آموزشی و پژوهشی مورداستفاده قرار گیرد. همچنین پیکره علمی تهیه شده نیز منبع ارزشمندی برای مطالعات حوزه زبان شناسی پیکره ای و پژوهش های مرتبط با پردازش زبان است.
    کلیدواژگان: فهرست بسامدی، واژگان علمی، پیکره علمی، زبان فارسی، زبان شناسی پیکره ای
  • آزاده فخرزاده*، محمدجواد ارشادی، محمدمهدی ارشادی صفحات 927-944

    پایگاه های اطلاعات علمی و موتورهای جستجو از ابزارهای اصلی کار پژوهشگران است. برای بازیابی دقیق و صحیح اطلاعات از این پایگاه ها نیاز است که اطلاعات با کیفیت مناسب وبا کمترین خطا ذخیره شوند. کنترل دستی اطلاعات زمانبر و پر هزینه است، در این مقاله، روش های داده کاوی برای کنترل کیفیت یک پایگاه اطلاعات پژوهشی معرفی می شود. برای این منظور ابتدا باید اطلاعاتی از خطاهای مرسوم را در کنار سایر اطلاعات هر رکورد جمع آوری کرد. سپس با استفاده از روش های داده کاوی الگوهای پنهان و روابط بین خطاها را کشف کرد و بر این اساس راه های بهبود کیفیت داده را ارایه داد. در این مقاله پایگاه اطلاعات علمی ایران (گنج)، به عنوان مطالعه موردی در نظر گرفته شد. 59 کد خطا توسط خبرگان تعریف شد.  سپس اطلاعات فراداده هر رکورد مثل نام دانشگاه، نام رشته،گرایش و حوزه تخصصی مدرک به همراه کدهای خطای آن در یک مجموعه داده  ذخیره شد. این مجموعه داده شامل 41021  رکورد  در حوزه های مختلف است. با استفاده از روش های آماری و قوانین انجمنی رابطه بین خطاها و الگوی تکرار آنها را درهرحوزه بررسی شد. نتایج نشان داد  به طور میانگین با در نظر گرفتن 25 درصد از خطاها در هر حوزه، می توان تا 80 درصد از خطاهای همه رکوردهای یک حوزه را کاهش داد. این خطاها شامل خطاهای پر تکرار در هر حوزه و همچنین خطاهایی است که با آن ها رابطه قوی دارند. با استفاده از روش خو شه بندی k-means رکوردها خوشه بندی شدند. نتایج نشان داد اگر چه شباهت هایی بین رکوردها از حوزه های مختلف وجود دارد، اما رابطه معناداری بین حوزه رکوردها و الگوی تکرار خطاها وجود ندارد.

    کلیدواژگان: کیفیت داده، کیفیت اطلاعات پژوهشی، کنترل کیفیت، داده کاوی
  • احمد صالحی*، محمد اقدسی، توکتم خطیبی، مجید شیخ محمدی صفحات 945-979

    در دنیای پیچیده امروز حیات سازمان ها و کسب وکارها بدون شناخت و استفاده کارآمد از داده ها امکان پذیر نخواهد بود. فرایندکاوی با ترکیب روش های یادگیری ماشین و مفاهیم مدیریت فرایندهای کسب وکار، تلاش دارد تا دانش نهان مربوط به چگونگی اجرای فرایندها را از داده های ذخیره شده در سامانه های اطلاعاتی استخراج نماید. اولین گام در فرایندکاوی، فعالیت کشف فرایند است که امکان مدل سازی فرایندها بر مبنای داده های رویداد ورودی را فراهم می سازد. اما استفاده از این مزیت بدون وجود داده های مناسب و با کیفیت فراهم نخواهد شد، زیرا هرگونه تحلیل بر پایه داده های با کیفیت پایین منجر به ایجاد بینش و تصمیمات نامناسبی می شود که بر عملکرد سازمان یا کسب ‎وکار تاثیر منفی خواهند گذاشت. هدف این پژوهش ارایه یک چارچوب مفهومی جدید برای پیش پردازش داده های ورودی به روش های کشف فرایند است تا کیفیت مدل فرایند نهایی بهبود یابد. چارچوب مفهومی پیشنهادی با استفاده از یک روش پژوهش کیفی بر اساس نظریه داده بنیاد پدید آمده است. بدین منظور 102 پژوهش مرتبط با حوزه کیفیت داده در فرایندکاوی مورد بررسی قرار گرفته و مهمترین چالش های کیفیت داده در این زمینه پس از پالایش و یکپارچه سازی آن ها از ادبیات شناسایی شده اند که شامل: «رویدادهای آشفته/کم تکرار»، «رویدادهای پرت»، «رویدادهای ناهنجار»، «مقادیر گمشده»، «قالب زمانی نادرست»، «برچسب های زمانی مبهم»، «فعالیت های مترادف» و «اندازه و پیچیدگی» می باشند. در ادامه گام های اساسی برای پیش پردازش و پاک سازی مناسب داده ها تعیین شده اند که در برگیرنده فعالیت‎های «ترمیم»، «کشف ناهنجاری»، «پالایش» و «کاهش ابعاد» می شوند. سپس چارچوب مفهومی نهایی بر پایه مشکلات کیفیت داده و فعالیت های پاک سازی شناسایی شده، ایجاد شده است. برای بررسی عملکرد چارچوب پیشنهادی از چهار مجموعه داده استاندارد برگرفته از فرایندهای واقعی استفاده شده است، که این داده ها در مرحله اول به صورت خام و در مرحله دوم پس از انجام پیش پردازش توسط چارچوب معرفی شده به چهار الگوریتم متداول کشف فرایند اعمال شده اند. نتایج نشان داد که پیش پردازش داده های ورودی منجر به بهبود معیارهای کیفیت مدل استخراج شده از الگوریتم های کشف فرایند می شود. همچنین برای سنجش اعتبار چارچوب پیشنهادی، عملکرد آن با سه روش پیش پردازش «نمونه برداری»، «پیش پردازش آماری» و «انتخاب نمونه اولیه»  مقایسه شده، که برآیندها بیانگر کارایی بهتر رویکرد پیشنهادی بوده است. نتایج پژوهش حاضر می تواند به عنوان یک رهیافت کاربردی توسط متخصصان و تحلیلگران داده و کسب ‎و کار در پروژه های فرایندکاوی مورد استفاده قرار گیرد.

    کلیدواژگان: سامانه های اطلاعاتی، مدیریت فرایندهای کسب ‎و کار، فرایندکاوی، کیفیت داده، پیش پردازش نگاره رویداد
  • الهام یلوه، یعقوب نوروزی*، اشکان خطیر صفحات 981-1010
    پژوهش حاضر با هدف ارایه روشی برای سازماندهی اسناد متنی فارسی با استفاده از تکنیک خوشه بندی انجام شد. مجموعه داده های مربوط به پایان نامه ها و رساله ها شامل 2943 تحقیق به عنوان جامعه آماری در نظر گرفته شد. جمع آوری داده ها از مجموعه داده های مربوط به تحقیقات علمی که شامل 5000  پژوهش در قالب فایل اکسل بود، انجام شد. در این پژوهش پس از تبدیل داده ها به قالب ساخت یافته، با استفاده از اعمال پیش پردازش عملیات پردازش صورت گرفت. در مرحله پردازش از تکنیک خوشه بندی جهت ارایه الگوریتم پیشنهادی در راستای سازماندهی اسناد متنی فارسی بهره گرفته شد. این الگوریتم با بهبود الگوریتم K-means در جهت خوشه بندی اسناد ارایه شد. نتایج حاصل از ارزیابی نشان داد الگوریتم پیشنهادی بر اساس معیارهای خارجی نسبت به دو الگوریتم K-means و K-means++ در کیفیت خوشه بندی اسناد تاثیر مثبتی داشت. به طوری که تحقیقات هر رده تعیین شده در خوشه موضوعی مرتبط دارای توزیع یکنواختی شد، و منجر به حصول هدف پژوهش حاضر گردید. در جداول رده/ خوشه حاصل از دو الگوریتم K-means  و K-means++ توزیع غیریکنواخت تحقیقات در خوشه ها مشاهده شد. بنابراین، ارزیابی بر اساس معیار های داخلی متاثر از تراکم متفاوت خوشه ها و شباهت بین خوشه ای بود. حجم دیتاست نیز متاثر از راهکارهای پیشنهادی برای انتخاب دیتاست نهایی و فرایند پژوهش نبود، بنابراین الگوریتم پیشنهادی برای ابعاد بالای ویژگی نیز مناسب عمل می کند.
    کلیدواژگان: سازماندهی اسناد متنی، تکنیک خوشه بندی، متن کاوی، تجزیه و تحلیل هوشمند متن
  • مریم طاوسی*، نادر نقشینه صفحات 1011-1040
    هدف

    با عنایت به افزایش روزافزون بازاریابی دیجیتال، پژوهش حاضر با هدف تحلیل وبگاه کتابخانه دانشگاه های ایران از منظر بهینه سازی موتورجستجو(سیو)ی گوگل، انجام شد. شناسایی مولفه های سیو نیز از اهداف ضمنی پژوهش بود.

    روش شناسی:

     تعداد 30 مولفه موثر بر سیوی گوگل، با استفاده از توافق میان دو ابزار آنلاین هوشمند تحلیل سیوی «سیو سایت چک آپ» و «سیو پی تایمر»، با ضریب پایایی 0.77، حاصل شد. تعداد 17 مولفه نیز با کمک متون و روش کتابخانه ای شناسایی شد (تعداد 12 مولفه در هر دو روش، مشترک بودند). جامعه پژوهش مشتمل بر تعداد 42 وبگاه کتابخانه دانشگاه های دولتی ایران وابسته به وزارت علوم واقع در کلان شهرهای ایران بودند. ابزار گرداوری داده ها، پایگاه های تحلیلی آنلاین «سیوپی تایمر»، «آ اچ رفز» و «سیمیلاروب» و «کنسرسیوم دبلیوتری» بودند (علاوه بر چک لیست و مولفه های شناسایی شده). اعضای جامعه از منظر 34 مولفه قابل سنجش به وسیله ابزارهای دگرسنجی تحلیل سیو (عدم نیاز به اینکه فرد تحلیگر وبسایت، مدیر همان وبسایت باشد) تحلیل شدند (مطالعه مقطعی: شش ماه ابتدای سال 2020 میلادی). از نرم افزارهای «اکسل» و «لایبرآفیس کلک»، جهت تحلیل داده ها استفاده شد.

    یافته ها:

     هیچ یک از وبگاه های کتابخانه دانشگاه های ایران، نمره سیوی نهایی مطلوب 75 از 100 را کسب نکردند. تنها 33 درصد از وبگاه کتابخانه دانشگاه های ایران، مولفه موثر بر سیوی «گواهی امنیت دیجیتال» را رعایت کرده بودند. به ترتیب اولویت، وبگاه های کتابخانه مرکزی دانشگاه صنعتی شریف، کتابخانه دیجیتالی دانشگاه شهید بهشتی، کتابخانه مرکزی دانشگاه تهران و کتابخانه مرکزی دانشگاه علامه طباطبایی از منظر مولفه های موثر بر سیوی گوگل، در صدر قرار گرفتند. اتصال وبسایت، به شبکه های اجتماعی مانند«لینکدین» و «فیس بوک» و «اینستاگرام»، جهت ارتقای نمره سیوی گوگل لازم است اما کافی نیست (تنها یک مولفه موثر بر سیو). 

    نتیجه گیری:

     مولفه های موثر بر سیوی موتور جستجوی گوگل را می توان به دو گروه تقسیم کرد. دسته اول توسط مدیران وبگاه کتابخانه، قابل تنظیم هستند(مشتمل بر 29 مولفه سیاهه وارسی محقق ساخته و 1 مولفه تطابق وبگاه کتابخانه با قوانین کنسرسیوم دبلیوتری). دسته دوم را می توان با توجه به بازخوردهای سایر وبگاه ها و یا کاربران بازدید کننده سنجید (مشتمل بر 4 مولفه «نرخ پرش کاربران»، «مدت زمان حضور کاربران در وبگاه کتابخانه»، «تعداد صفحات نمایه شده در گوگل»، «تعداد بازدید یا کلیک کاربران»). ارتقای مولفه های موثر بر سیو در کنار دارا بودن محتوای غنی، به صورت توامان ارزشمند خواهد بودبا عنایت به افزایش روزافزون بازاریابی دیجیتال، پژوهش حاضر با هدف تحلیل وبگاه کتابخانه دانشگاه های ایران از منظر بهینه سازی موتورجستجو(سیو)ی گوگل، انجام شد. شناسایی مولفه های سیو نیز از اهداف ضمنی پژوهش بود.روش شناسی: تعداد 30 مولفه موثر بر سیوی گوگل، با استفاده از توافق میان دو ابزار آنلاین هوشمند تحلیل سیوی «سیو سایت چک آپ» و «سیو پی تایمر»، با ضریب پایایی 0.77، حاصل شد. تعداد 17 مولفه نیز با کمک متون و روش کتابخانه ای شناسایی شد (تعداد 12 مولفه در هر دو روش، مشترک بودند). جامعه پژوهش مشتمل بر تعداد 42 وبگاه کتابخانه دانشگاه های دولتی ایران وابسته به وزارت علوم واقع در کلان شهرهای ایران بودند. ابزار گرداوری داده ها، پایگاه های تحلیلی آنلاین «سیوپی تایمر»، «آ اچ رفز» و «سیمیلاروب» و «کنسرسیوم دبلیوتری» بودند (علاوه بر چک لیست و مولفه های شناسایی شده). اعضای جامعه از منظر 34 مولفه قابل سنجش به وسیله ابزارهای دگرسنجی تحلیل سیو (عدم نیاز به اینکه فرد تحلیگر وبسایت، مدیر همان وبسایت باشد) تحلیل شدند (مطالعه مقطعی: شش ماه ابتدای سال 2020 میلادی). از نرم افزارهای «اکسل» و «لایبرآفیس کلک»، جهت تحلیل داده ها استفاده شد.یافته ها: هیچ یک از وبگاه های کتابخانه دانشگاه های ایران، نمره سیوی نهایی مطلوب 75 از 100 را کسب نکردند. تنها 33 درصد از وبگاه کتابخانه دانشگاه های ایران، مولفه موثر بر سیوی «گواهی امنیت دیجیتال» را رعایت کرده بودند. به ترتیب اولویت، وبگاه های کتابخانه مرکزی دانشگاه صنعتی شریف، کتابخانه دیجیتالی دانشگاه شهید بهشتی، کتابخانه مرکزی دانشگاه تهران و کتابخانه مرکزی دانشگاه علامه طباطبایی از منظر مولفه های موثر بر سیوی گوگل، در صدر قرار گرفتند. اتصال وبسایت، به شبکه های اجتماعی مانند «لینکدین» و «فیس بوک» و «اینستاگرام»، جهت ارتقای نمره سیوی گوگل لازم است اما کافی نیست (تنها یک مولفه موثر بر سیو). نتیجه گیری: مولفه های موثر بر سیوی موتور جستجوی گوگل را می توان به دو گروه تقسیم کرد. دسته اول توسط مدیران وبگاه کتابخانه، قابل تنظیم هستند(مشتمل بر 29 مولفه سیاهه وارسی محقق ساخته و 1 مولفه تطابق وبگاه کتابخانه با قوانین کنسرسیوم دبلیوتری). دسته دوم را می توان با توجه به بازخوردهای سایر وبگاه ها و یا کاربران بازدید کننده سنجید (مشتمل بر 4 مولفه «نرخ پرش کاربران»، «مدت زمان حضور کاربران در وبگاه کتابخانه»، «تعداد صفحات نمایه شده در گوگل»، «تعداد بازدید یا کلیک کاربران»). ارتقای مولفه های موثر بر سیو در کنار دارا بودن محتوای غنی، به صورت توامان ارزشمند خواهد بود.

    کلیدواژگان: رویت پذیری، گوگل، نمایه سازی در وب، مفاهیم سئو، کتابخانه های دانشگاهی
  • علی فاطمی نژاد، حمیدرضا پیکری*، سعید شریفی صفحات 1041-1065

    این مطالعه با هدف ارایه مدل رفتار محافظتی در مقابل نگرانی از نقض حریم خصوصی گروه انجام گرفته است. پژوهش حاضر از نظر هدف، یک پژوهش کاربردی-توسعه ای است و از منظر روش گردآوری داده ها، یک پژوهش های پیمایشی-مقطعی قرار می گیرد. برای دستیابی به هدف پژوهش از طرح آمیخته اکتشافی استفاده شده است. جامعه آماری شامل کادر درمان و اداری سازمان تامین اجتماعی استان سمنان به تعداد 652 نفر است که با فرمول کوکران حجم نمونه 277 نفر برآورد گردید. برای گردآوری داده ها از مصاحبه و پرسشنامه استفاده شد. مقوله های زیربنایی سه شاخگی مدیریت با روش تحلیل مضمون شناسایی شد و الگوی نهایی با روش مدل یابی معادلات ساختاری اعتبارسنجی گردید. تحلیل داده های کیفی با نرم افزار Maxqda و بخش کمی با LISREL انجام شد. نتایج نشان داده است مقوله های فراگیر در قالب عوامل نگرانی از نقض حریم خصوصی گروه و فتار محافظتی دسته بندی شده اند. عوامل سازمان دهنده نیز شامل نگرانی از نقض حریم خصوصی اعضای گروه، ماهیت گروه، رفتار گروه، ارتباطات گروه ، اطلاعات گروه، احتیاط، محدود کردن، مداخله و کنترل هستند. همچنین اثر تعدیل گری رسمیت و محوریت گروه در مسیر نگرانی از نقض حریم خصوصی گروه به رفتار محافظتی بررسی و تایید شده است.

    کلیدواژگان: رفتار محافظتی، نقض حریم خصوصی، مراکز درمانی تامین اجتماعی
  • مهرداد مقصودی، مسعود جلیلوند خسروی، سیاوش صلواتیان* صفحات 1067-1094
    به واسطه تحولات فناوری های رسانه ای در حوزه تولید و توزیع محصولات و خدمات رسانه ای، رفتار کاربران به عنصری مهم در شکل دهی به زیست بوم وب سایت های تماشا و دریافت ویدیو تبدیل شده است. با توجه به اینکه «مخاطب شدن» از دیدن، شنیدن یا خواندن فراتر رفته و نیاز به رویکردهای جدید برای پژوهش درباره مخاطب به وجود آمده است. در این راستا، تحقیق حاضر بر مطالعه رفتار مصرف محتوای ویدیویی کاربران متمرکز شده و الگوی ارتباطی اعضای زیست بوم سایت های ویدیویی ایرانی را با تکنیک تحلیل شبکه اجتماعی بررسی کرده است. پژوهش حاضر با رویکرد کمی و به روش تحلیل شبکه اجتماعی انجام شده و دارای 2 فاز پژوهشی است: الف) نمونه گیری سایت های ایرانی دریافت و تماشای ویدیو از طریق روش تراش وب ب) ترسیم، شناسایی جوامع و تحلیل شبکه اجتماعی متشکل از ارتباط سایت های ایرانی دریافت و تماشای ویدیو. بر اساس یافته های تحقیق، زیست بوم وب سایت های دریافت و تماشای ویدیوی کشور شامل 144 عنصر و 8 جامعه شامل وب سایت دریافت و تماشای ویدیو بر اساس رفتار کاربران شامل جامعه های محتوای تولیدشده کاربر، محتوای درخواستی کاربر، خرید قانونی، دریافت قانونی، دریافت غیرقانونی، زیرنویس و محتوای شرق آسیا است. جامعه مرتبط با دریافت قانونی نسبت به سایر جامعه ها بزرگ تر بوده و مهم ترین جامعه مرتبط با وب سایت های دریافت و تماشای ویدیو است. پژوهش حاضر نشان داد که نیازهای مخاطبان در رجوع به بستر ویدیویی و حتی در جابجایی بین بسترها، تاثیرگذار است و از طرفی، می توان استدلال کرد که مخاطب بودن حالتی جست وجوگرانه پیدا کرده است و مخاطب در جست وجوی برطرف ساختن نیازهای خود، بین جوامع درحرکت بوده و بنا به نظریه مخاطب فعال، قابلیت اثرگذاری از طریق رفتار بر زیست بوم رسانه ای را دارد.
    کلیدواژگان: وب سایت های ویدئویی، کاربران، تحلیل شبکه اجتماعی، جامعه، رفتار
  • اعظم نجفقلی نژاد* صفحات 1095-1126

    بازطراحی معماری رابط کاربر وبگاه کتابخانه دیجیتال سازمان اسناد و کتابخانه ملی ایران با روش کارت سورتینگ به منظور بهبود ساختار و بازیابی مطلوب، هدف پژوهش حاضر است. پژوهش حاضر از نوع کاربردی است که برای بازطراحی معماری رابط کاربر وبگاه کتابخانه دیجیتال، از رویکرد چندجانبه و تکنیک های مختلفی از جمله مصاحبه، بلنداندیشی و کارت سورتینگ استفاده کرد. برای تجزیه و تحلیل داده ها از نرم افزارهای EXCEL، VISIO و برای تحلیل داده های حاصل از کارت سورتینگ و  برای دقت در تحلیل سازه ها از ابزار Sort Optimal  استفاده گردید. نتایج به دو صورت ماتریس شباهت و الگوریتم دندروگرام بازخوانی شد. جامعه آماری در این پژوهش شامل کاربران وبگاه کتابخانه دیجیتال سازمان اسناد و کتابخانه ملی ایران بودند که در دو گروه کاربران مبتدی (مراجعان) و کاربران پیشرفته (کتابداران) به تعداد 20 نفر انتخاب شدند. در راستای اعتباربخشی به یافته های کیفی، از روش مثلث سازی یا زاویه بندی محقق استفاده شد. یافته های پژوهش، الگو و نتایج به دست آمده از آزمون کارت سورتینگ، جهت ارزیابی در اختیار 7  نفر از متخصصان، محققان و اساتید رشته علم اطلاعات و دانش شناسی که از تجربه لازم برخوردار بودند، قرار گرفت تا نظر تخصصی و کارشناسی خود را در زمینه تحلیل داده ها و الگو ارایه دهند. یافته های ماتریس شباهت نشان داد کاربران عناصری مانند "از ما بپرسید"، "ملاحظات حقوقی"، "ثبت منابع"، "اهدای منابع"، "پشتیبانی فنی" و... را با هم گروه بندی کرده اند. یافته های شبکه استانداردسازی نیز تایید کرد کاربران 10 باز گزینه "از ما بپرسید"، 17 بار "ثبت منابع" و 6 بار "پشتیبانی فنی" را در منوی خدمات الکترونیکی قرار داده اند. یافته های دندروگرام نیز نشان داد تعدادی از مشارکت کنندگان انتظار دارند در کنار باکس جست و جو بتوانند در صورت ضرورت «نوع منبع» را انتخاب کنند، نه اینکه به صورت مستقل، تک تک منابع دیجیتالی را مرور کنند. علاوه بر طبقه های از پیش تعریف شده، برخی طبقات جدید، توسط مشارکت کنندگان پیشنهاد شد. "پیوند به سایر کتابخانه های دیجیتال"، "پایگاه های اشتراکی" و طبقه "سوال های متداول" از آن جمله بود. داده ها و عملکرد کاربران در این پژوهش نشان داد رابط کاربری کنونی وبگاه کتابخانه دیجیتالی کاربرپسند نیست و کاربران نمی توانند به سرعت آنچه را که بدنبال آن هستند، به دست آورند. فرایند کارت سورتینگ به طور کلی ناهماهنگی هایی را در نحوه درک مطلوب کاربران از برچسب زنی و سازماندهی محتوای وبگاه کتابخانه دیجیتال تایید کرد. مصاحبه و پروتکل بلنداندیشی با کاربران نیز تایید کرد زبان مورد استفاده برای نامگذاری منوها و عناصر اطلاعاتی در حال حاضر ساده و کاربرپسند نیست. دسته بندی های کاربران در فرایند کارت سورتینگ برای طراحی معماری رابط کاربری نیز نشان داد عناصری در وبگاه وجود دارد که موردنیاز کاربران نیست و برعکس، عناصر مهمی وجود دارد که در وبگاه گنجانده نشده است. در معماری اطلاعات شبیه سازی شده بر اساس یافته های حاصل از مصاحبه و مشارکت کاربران در طبقه بندی مقوله های اطلاعاتی وبگاه در فرایند کارت سورتینگ، تلاش شد رابط کاربری پیشنهادی تا حدودی شبیه سایر رابط کاربری های سازمان (اپک و نرم افزار رسا) طراحی شود. در الگوی پیشنهادی، ضمن توجه به خواسته ها و انتظارات کاربران، سادگی و خلوت بودن صفحات، مهمترین نکته رعایت شده است.

    کلیدواژگان: رابط کاربری، معماری اطلاعات، کتابخانه دیجیتال، سازمان اسناد و کتابخانه ملی ایران، کارت سورتینگ
|
  • Rahman Sharifzadeh * Pages 715-744
    The purpose of this paper is to identify the ethical challenges of dissertations/theses supervision in Iran and to provide the codes of ethics for supervisors according to the challenges. The process of achieving this goal has consisted of four steps: determining ethical principles for supervision as a profession, identifying ethical challenges, examining the relationship between the challenges and the Iranian academic context, and codifying the ethical duties of supervisors. Accordingly, in the first step, a set of ethical principles that can be an ethical basis for research supervision as profession is justified. In the second step, research supervision challenges are extracted from the literature- researches as well as the regulations of various universities and institutes. In the third step, surveying a number of faculty members and graduated/ graduate students we asked them how many of the challenges occur in the Iranian academic context, and also what other challenges can be added to our list of the challenges. The results of this step indicated the high relevance of the challenges to Iranian academic context. Due to the fact that both groups of supervisors and students participated in this research, it was possible to compare their ethical perspectives as well. In some cases, students and faculty members had divergent views on the importance and occurrence of some of the challenges. Finally, in the fourth step, based on the obtained challenges and in accordance to their instances, 36 independent codes were provided, and their relevance and comprehensiveness was evaluated in a focus group.
    Keywords: Supervision Ethics, Supervisor, Ethical Challenges, thesis, dissertations
  • Sudabeh Nozari * Pages 745-781
    For the term ontology from philosophy, there has been used various equations in non-philosophical texts (artificial intelligence, information sciences, semantic web, etc.). These equations show that there is lexical confusion for both parts of this terminology (being and beings for the first part, and logy, graphy and mapping for the second one). The purpose of this survey is studying in this confusion, the reasons of selecting such equations and finally to obtain a suitable, accurate, documented and rational equation for this term. Research methodology is documentary/library to determine the correctness of equations of ontology. In this regard, two types of texts have been explored: 1) non-philosophical Persian texts about ontology, and 2) philosophical texts about Martin Heidegger’s views.Examining 112 non-philosophical Persian texts, showed that more than half of the equations were assigned to “Hastishenasi”, which was to be expected because it is an accurate translation of the ontology. But the tendency of authors to use “Hastanshenasi” and “Hastannegari” in recent years, shows the understanding of the difference in the meaning of this concept in the philosophical and non-philosophical fields. Most of authors have only mentioned that “ontology comes from philosophy” and a few authors have stated the reason for choosing the equivalent. For the second part of this concept, Hori’s, Fadaei’s and Lynch’s reasons do not leave any doubt in the acceptance of “Negari” instead of “Shenasi”. But for the first part of this term, regarding Heidegger’s persistence in distinguishing between “being/existence” and “beings/ entities”, it is necessary to separate the using this concept in philosophical and non-philosophical domains, by preferring “Hastan” to “Hasti”. Then the author suggests “Hastannegari” for non-philosophical texts.Due to Heidegger’s critique to Aristotle’s categorization for integrating of possible states of beings, we must be more careful in using and quoting this theory in non-philosophical texts.Finally, despite the above results and even the existence of the countless sources in the field of Science and Technology Studies (STS), the author raises a new question: is the term (ontology) appropriate for what we do in non-philosophical texts and couldn’t we select an independent term without borrowing this term from philosophy? In order to answer this question, the author suggests an independent research, especially by studying on lexical sources and linguistic theories
    Keywords: Ontogloy, Hasti, Hastan, Shenasi, Negari, Equivalent Selection, Martin Heidegger, Knowledge, Information Science, Science, Technology Studies (STS), Turn to Ontology
  • Saba Sareminia *, Fatemeh Amini Pages 783-823
    Nowadays businesses by identifying the components affecting the dimensions of customer engagement and mining the data that are produced by customers and with suitable marketing activities can attract more and more customers and eventually have more useful and updated marketing. This research “Ontology of customer engagement in social networks from the perspective of customer needs and business requirements” uses a systematic review of the literature and content analysis that is presented in two main dimensions: “Engagement components from the perspective of customers” and the classification of customer engagement sub-components from a functional and content perspective of business as “Engagement components from a business point of view”. In such a way that a two-sided relationship between the customer and business active in social networks is presented. The layer of customer’s perspective is presented in three layers: “Behavioral”, “Cognitive” and “Emotional”. These components measure the impact of focusing on 30 sub-components of the activities of active businesses and other customers in social networks on customer engagement. Moreover, the layer of a business’s perspective is categorized into 7 sub-groups: “advertisements based on functional value”, “content”, “aesthetics and customization”, “social-psychological”, “temporal and contextual”, “interaction” and “technology”. The proposed ontology has been evaluated using survey research with help of users’ and customers’ opinions on social networks. In this step, by purposeful sampling and using an online questionnaire, the components from a business perspective as a common measurement index between the two existing perspectives were evaluated. The sub-components of the proposed ontology were accepted based on Friedman’s test. The results of statistical analysis show that its layers are homogeneous with 95% confidence and the layer “advertisements based on functional value” has the greatest impact on increasing customer engagement.
    Keywords: ontology, Customer engagement, Social Network
  • Elham Alayiaboozar * Pages 825-900
    One of the big challenges in natural language processing is ambiguity. Homographs and homograph sense disambiguation is highly important in computational processing of texts. In languages with complex morphology, there exists lots of homographs, which are worth studying and classifying. In present study, in order to study Persian homographs extracted from the corpus, first words with more than one POS tag were extracted from an annotated corpus, 10978 words. Then, the frequency of each POS tag pertaining to every homograph was studied and another list of homographs was extracted from the first one, which include homographs with high frequency of the first tag (more than 20) and considerable frequency of the second tag (more than 10); the mentioned list include 1675 homographs. Morphological, phonological as well as semantic structures of homographs were studied, based on which all homographs were classified into 11 categories. From 11 categories, only homographs in one category were chosen based on semantic criteria and the rest were classified based on morphological as well as phonological criteria. The output of the present study includes a big list of homographs extracted from Persian text corpus, each of which are categorized in one or more than one category based on morphological and phonological characteristics of homographs. Such list and the related categorization could be used in word sense disambiguation systems.
    Keywords: Ambiguity, homograph, POS tag, morphological characteristics
  • Morteza Rezaei Sharifabadi, Amirsaeid Moloodi *, Alireza Ahmadi, Alireza Khormaei Pages 901-926
    Academic words occur with high frequency in texts from a wide range of scientific fields, and their frequency in academic texts is much higher than in general texts. Academic wordlists can facilitate the learning and teaching of scientific language. In this research, we have developed a frequency list of Persian academic words. The word list includes 307 word lemmas with a high frequency in academic texts. Creating a balanced corpus of Persian academic texts was the prerequisite for developing such a list. For this purpose, we collected scientific texts published in Persian scientific journals and built a balanced corpus containing more than 51 million words. The corpus includes texts of academic papers in four general categories, i.e., basic sciences and engineering; humanities, arts, and architecture; medicine and veterinary medicine; agriculture and natural resources. We used four different criteria for lemmas to be included in our wordlist. 1- frequency: The lemmas should have a relative frequency of at least 30 per million words. 2- ratio: The relative frequency of the lemmas in the academic corpus should be two times greater than their frequency in a 10 million word general corpus. 3- dispersion: Juilland's D value of the lemmas in the four sections should be at least 0.5. 4- range: the observed frequency of the lemma should not be less than a third of its expected frequency in any of the four sections of the corpus. We evaluated the wordlist by measuring its coverage in our corpus's train and test sections. The wordlist covers 16.69 percent of the train subset and 16.13 percent of the test subset.
    Keywords: frequency list, academic wordlist, academic corpus, Persian language, Corpus linguistics
  • Azadeh Fakhrzdaeh *, Mohammad Javad Ershadi, Mohammad Mahdi Ershadi Pages 927-944

    Research information databases and search engines are one of the main resources used by researchers every day. To accurately retrieve information from these databases, data need to be stored correctly. Manual controlling of data quality is costly and time-consuming. Here we suggest data mining methods for controlling the quality of a research database. To this end, common errors that are seen in a database should be collected. Metadata of every record in addition to its error codes is saved in a dataset. Statistics and data mining methods are applied to this dataset and patterns of errors and their relationships are discovered. Here we considered Iran's scientific information database (Ganj) as a case study. Experts defined 59 errors. Intimate features of every record, such as its subject, authors' names and name of the university, with its error codes were saved in a dataset. The dataset containing 41021 records was formed.  Statistics methods and association rules were applied to the dataset and the relationship between errors and their pattern of repetition was discovered. Based on our results, in average by considering 25 % of errors in every subject, up to 80%  of errors of all the records in a subject are covered. All the records were also clustered using K-means clustering. Although there was some similarity between records of different subjects, there was not seen any evident relationship between the pattern of repetition of the errors and the subject of records.

    Keywords: Data quality, Research information quality, quality control, Clustering
  • Ahmad Salehi *, Mohammad Aghdasi, Toktam Khatibi, Majid Sheikhmohammady Pages 945-979

    In today's challenging world, organizational growth is not possible without the efficient use of data. Process mining uses machine learning methods and business process management concepts to extract hidden knowledge about business processes from data stored in information systems. Process Discovery is the first step in process mining. The main goal of process discovery is to transform the event log into a process model. However, using process discovery methods will not be possible without appropriate data because any analysis based on low-quality data will lead to poor insights and bad decisions that will negatively affect the performance of the organization or business. This paper aims to provide a new conceptual framework for preprocessing data input into process discovery methods to improve the quality of the extracted model. The proposed conceptual framework has been developed using a qualitative research process based on grounded theory. For this purpose, 102 articles related to the domain of data quality in process mining were reviewed, and the most critical challenges of data quality in this field have been identified after filtering and integrating them from the literature, including: Are "noisy/infrequent events," "outlier events," "anomalous events," "missing values," "incorrect time format," "ambiguous timestamps," "synonymous activities" and "size and complexity." Then, the basic steps for data preprocessing and cleaning tasks are defined, which include the activities of "repair," "anomaly detection," "filtering," and "dimensional reduction." The final preprocessing framework then builds on data quality issues and identified activities. Four standardized datasets derived from real-world processes were used to assess the proposed framework's performance. Firstly, these data are raw, and secondly, four standard process discovery algorithms are applied after preprocessing by the introduced framework. The results showed that the preprocessing of the input data leads to the improvement of the model quality criteria extracted from the process discovery algorithms. Furthermore, to evaluate the validity of the proposed framework, its performance was compared with three preprocessing methods"sampling," "statistical preprocessing," and "prototype selection," which the results indicate better efficiency of the proposed approach. The results of this study can be used as guidelines by data and business analysts to identify and resolve data quality problems in process mining projects.

    Keywords: information systems, Business process management, Process Mining, Data quality, Event log preprocessing
  • Elham Yalveh, Yaghoub Norouzi *, Ashkan Khatir Pages 981-1010
    The present study aimed to Designing a method for organizing Persian text documents using the clustering technique. The data set related to Theses and Dissertations including 2943 researches was considered as a statistical population. Data were collected from a set of data related to scientific research, which included 5,000 researches in Excel format. In this study, after converting the data into a structured format, the processing operation was performed using preprocessing operations. In the processing stage, the clustering technique was used to present the proposed algorithm in order to organize Persian text documents. This algorithm was introduced by improving the K-means algorithm for document clustering. The results of the evaluation showed that the proposed algorithm based on external criteria had a positive effect on the clustering quality of documents compared to the two algorithms K-means and K-means++. So that the research of each designated category in the related subject cluster had a uniform distribution, and led to the achievement of the purpose of the present study. In the category / cluster tables obtained from the two algorithms K-means and K-means++, we saw a non-uniform distribution of research in clusters, so the evaluation based on internal criteria was affected by different cluster densities and inter-cluster similarity. The size of the dataset was also not affected by the proposed solutions for selecting the final dataset and the research process, so the proposed algorithm works well for the high dimensions of the feature.
    Keywords: organizing text documents, clustering techniques, text mining, textual data mining
  • Maryam Tavosi *, Nader Naghshineh Pages 1011-1040
    Purpose

    Considering the growth of digital marketing, the present study was conducted by webometrics approach. Iranian university library websites analyzed from the standpoint of Google search engine optimization (SEO). Moreover, identifying the effective factors of Google SEO, done.

    Methodology

    The number of 30 effective components on Google SEO was obtained by using the agreement between two intelligent online SEO analysis tools "SEOsitecheckup" and "SEOPtimer", with a reliability coefficient of 0.77. The number of 17 components was identified with the help of texts and the library method (the numbers of 12 components were common in both methods). The research community consisted of 42 library websites of Iranian universities affiliated with the Ministry of Science located in major cities of Iran. The data collection tools were the online analysis databases "SEOptimer", "Ahrefs", "Similarweb", and "W3 Consortium" (in addition to the checklist and identified components). The members of the community were analyzed from the standpoint of the 34 measurable components by SEO analysis tools (no need for the manager or administrator of the same website) on the cross-sectional study for six months at the beginning of the year 2020). "Excel" and "LibreOffice Click" software were used to analyze the data.

    Findings

    None of the websites of Iran's university libraries got the final SEO score of 75 out of 100. Only thirty-three percent of Iranian university library websites had observed the "digital security certificate" effective component on SEO. The websites of the central library of the Sharif university of technology, and the digital library of Shahid Beheshti university were ranked respectively, from standpoint of the final Google SEO score. Connecting the website to various social networks such as LinkedIn, Facebook, and Instagram, is necessary to improve Google's SEO score, but it is not sufficient (only one effective component).

    Conclusion

    The components affecting Google SEO can be divided into two groups. The first category can be adjusted by the administrators of the library website (including 29 components of the checklist offered in this present study and 1 component of the library website's compliance with the rules of the W3 consortium). The second category (including 4 components: "bounce rate", "average visit duration", "number of pages indexed in Google", and "number of clicks or visits of uses") can be measured by the feedback of other websites or clicking of the users. Improving SEO-effective components along with having rich content will be valuable together with each other.

    Keywords: : Visibility, Google, Web Indexing, SEO Components, Academic Libraries
  • Ali Fateminejad, Hamid Reza Peikari *, Saeed Sharifi Pages 1041-1065

    This study aims to provide a model of protective behavior against the concern of violating the group's privacy. The current research is an applied-developmental research in terms of its purpose, and it is a survey-cross-sectional research from the point of view of the data collection method. A mixed exploratory design has been used to achieve the goal of the research. The statistical population includes the treatment and administrative staff of the Social Security Organization of Semnan Province, numbering 652 people, and the sample size was estimated to be 277 people using Cochran's formula. Interviews and questionnaires were used to collect data. The underlying categories of the three branches of management were identified by thematic analysis method and the final model was validated by the structural equation modeling method. Qualitative data analysis was done with Maxqda software and quantitative part with LISREL. The results have shown that the overarching categories are grouped in the form of factors of concern about the violation of group privacy and protection. Organizing factors also include concerns about privacy violations of group members, group nature, group behavior, group communication, group information, caution, restriction, intervention, and control. Also, the moderating effect of formality and centrality of the group on the path of concern about violation of group privacy to protective behavior has been investigated and confirmed.

    Keywords: Protective behavior, Privacy Violation, Social security medical centers
  • Mehrdad Maghsoudi, Masoud Jalilvand Khosravi, Siavash Salavatian * Pages 1067-1094
    Due to the evolution of media technologies in the field of production and distribution of media products and services, user behavior has become an important element in shaping the ecosystem of video watching and downloading websites. In this regard, the current research is focused on the study of the video content consumption behavior of the users and has examined the communication pattern of the members of the ecosystem of Iranian video sites with the technique of social network analysis. The current research was conducted with a quantitative approach and social network analysis method and has 2 research phases: a) Sampling of Iranian video download and watch sites through web scraping method b) Visualization, community detection, and social network analysis of Iranian video watch and download websites. According to the research findings, the ecosystem of video downloading and watching websites in Iran includes 144 elements and 8 communities and includes communities of user-generated content, Video on Demand, legal purchase, legal reception, illegal reception, subtitles, and East Asian content. The legal downloading community is larger than other communities and is the most important community related to video downloading and watching websites. The present study showed that the audience's needs are influential in referring to the video platform and even in moving between the platforms, on the other hand, it can be argued that being an audience has found a searching state and the audience is moving between societies in search of satisfying their needs. According to the active audience theory, it has the ability to influence the media ecosystem through behavior.
    Keywords: video websites, website ecosystem, user behavior, Social Network Analysis, community detection, audience
  • Azam Najafgholinejad * Pages 1095-1126

    the purpose of the research was to redesign the user interface architecture of the digital library website of the National Library and Archives of Iran (NLAI(using the Card Sorting method in order to improve the structure and the desired retrieval. The present study is an applied research that used a multifaceted approach and various techniques such as interviewing, Think-aloud protocol and Card Sorting to redesign the user interface architecture of the digital library website of the NLAI. EXCEL and VISIO software were used to analyze the data, and Sort Optimal tool was used to analyze the data obtained from the Card Sorting. The results were read in the form of similarity matrix and dendrogram algorithm. The statistical population in this study included users of the digital library website of the NLAI, who were selected in two groups of novice users (clients) and advanced users (librarians). In order to validate the qualitative findings, the researcher triangulation method was used. Findings of the research, model and results obtained from the Card Sorting test, for evaluation, were provided to 7 experts, researchers and professors of library and information science who had the necessary experience, to give their expert opinion in the field of data analysis.

    Results The similarity matrix findings showed that users grouped elements such as "Ask Us", "Legal Considerations", "Resource Registration", "Resource Donation", and "Technical Support" and so on. The findings of the Standardization Network also confirmed that users have included 10 times "Ask Us", 17 times "Resource Registration" and 6 times "Technical Support" in the menu of electronic services. Dendrogram findings also showed that a number of contributors expect to be able to select "source type" if necessary next to the search box, rather than independently reviewing individual digital resources. Cart sorting process analyzes showed that in addition to predefined categories, some new categories were suggested. These included "links to other digital libraries", "shared databases" and the "FAQ" category. The data and performance of users in this study showed that the current user interface of the digital library website is not user-friendly and users cannot quickly get what they are looking for. The card-sorting process generally acknowledged inconsistencies in how users perceived the labeling and organization of digital library website content. Interviews and think-aloud protocols with users also confirmed that the language used to name menus and information elements is currently not simple and user-friendly. User categories in the card-sorting process for designing the user interface architecture also showed that there are elements in the website that users do not need, and conversely, there are important elements that are not included in the website. In the simulated information architecture, based on the findings of the interview and the participation of users in the Card Sorting process, an attempt was made to design the proposed user interface somewhat similar to other user interfaces (OPAC and Rasa software). In the proposed model, while paying attention to the demands and expectations of users, the simplicity of the pages, the most important point has been observed.

    Keywords: User Interface, Information Architecture, Digital library, National Library, Archives of Iran (NLAI(, Card Sorting