به جمع مشترکان مگیران بپیوندید!

تنها با پرداخت 70 هزارتومان حق اشتراک سالانه به متن مقالات دسترسی داشته باشید و 100 مقاله را بدون هزینه دیگری دریافت کنید.

برای پرداخت حق اشتراک اگر عضو هستید وارد شوید در غیر این صورت حساب کاربری جدید ایجاد کنید

عضویت
جستجوی مقالات مرتبط با کلیدواژه

encoder-decoder architecture

در نشریات گروه فناوری اطلاعات
تکرار جستجوی کلیدواژه encoder-decoder architecture در نشریات گروه فنی و مهندسی
تکرار جستجوی کلیدواژه encoder-decoder architecture در مقالات مجلات علمی
  • حسن علی اکبرپور، محمدتقی منظوری شلمانی، امیرمسعود رحمانی

    با گسترش وب و در دسترس قرار گرفتن حجم زیادی از اطلاعات در قالب اسناد متنی ، توسعه سیستم های خودکار خلاصه سازی متون به عنوان یکی از موضوعات مهم در پردازش زبان های طبیعی در مرکز توجه محققان قرار گرفته است. البته با معرفی روش های یادگیری عمیق در حوزه پردازش متن، خلاصه سازی متون نیز وارد فاز جدیدی از توسعه شده و در سال های اخیر نیز استخراج خلاصه چکیده ای از متن با پیشرفت قابل توجهی مواجه شده است. اما می توان ادعا کرد که تاکنون از همه ظرفیت شبکه های عمیق برای این هدف استفاده نشده است و نیاز به پیشرفت در این حوزه توامان با در نظر گرفتن ویژگی های شناختی همچنان احساس می شود. در این راستا، در این مقاله یک مدل دنباله ای مجهز به سازوکار توجه کمکی برای خلاصه سازی چکیده ای متون معرفی شده است که نه تنها از ترکیب ویژگی های زبانی و بردارهای تعبیه به عنوان ورودی مدل یادگیری بهره می برد بلکه برخلاف مطالعات پیشین که همواره از سازوکار توجه در بخش کد گذار استفاده می کردند، از سازوکار توجه کمکی در بخش کدگذار استفاده می کند. به کمک سازوکار توجه کمکی معرفی شده که از سازوکار ذهن انسان هنگام تولید خلاصه الهام می گیرد، بجای اینکه کل متن ورودی کدگذاری شود، تنها قسمت های مهم تر متن کدگذاری شده و در اختیار کدگشا برای تولید خلاصه قرار می گیرند. مدل پیشنهادی همچنین از یک سوییچ به همراه یک حد آستانه در کدگشا برای غلبه بر مشکل با کلمات نادر بهره می برد. مدل پیشنهادی این مقاله روی دو مجموعه داده CNN/Daily Mail و DUC-2004 مورد آزمایش قرار گرفت. بر اساس نتایج حاصل از آزمایش ها و معیار ارزیابی ROUGE، مدل پیشنهادی از دقت بالاتری نسبت به سایر روش های موجود برای تولید خلاصه چکیده ای روی هر دو مجموعه داده برخوردار است.

    کلید واژگان: یادگیری عمیق، خلاصه سازی چکیده ای، معماری کدگذار-کدگشا، سازوکار توجه کمکی، ویژگی های زبانی
    hasan aliakbarpor, mohammadtaghi manzouri, amirmasoud rahmani

    By the extension of the Web and the availability of a large amount of textual information, the development of automatic text summarization models as an important aspect of natural language processing has attracted many researchers. However, with the growth of deep learning methods in the field of text processing, text summarization has also entered a new phase of development and abstractive text summarization has experienced significant progress in recent years. Even though, it can be claimed that all the potential of deep learning has not been used for this aim and the need for progress in this field, as well as considering the human cognition in creating the summarization model, is still felt. In this regard, an encoder-decoder architecture equipped with auxiliary attention is proposed in this paper which not only used the combination of linguistic features and embedding vectors as the input of the learning model but also despite previous studies that commonly employed the attention mechanism in the decoder, it utilized auxiliary attention mechanism in the encoder to imitate human brain and cognition in summary generation. By the employment of the proposed attention mechanism, only the most important parts of the text rather than the whole input text are encoded and then sent to the decoder to generate the summary. The proposed model also used a switch with a threshold in the decoder to overcome the rare words problem. The proposed model was examined on CNN / Daily Mail and DUC-2004 datasets. Based on the empirical results and according to the ROUGE evaluation metric, the proposed model obtained a higher accuracy compared to other existing methods for generating abstractive summaries on both datasets.

    Keywords: Deep learning, Abstractive summarization, Encoder-decoder architecture, Auxiliary attention mechanism, Linguistic features
نکته
  • نتایج بر اساس تاریخ انتشار مرتب شده‌اند.
  • کلیدواژه مورد نظر شما تنها در فیلد کلیدواژگان مقالات جستجو شده‌است. به منظور حذف نتایج غیر مرتبط، جستجو تنها در مقالات مجلاتی انجام شده که با مجله ماخذ هم موضوع هستند.
  • در صورتی که می‌خواهید جستجو را در همه موضوعات و با شرایط دیگر تکرار کنید به صفحه جستجوی پیشرفته مجلات مراجعه کنید.
درخواست پشتیبانی - گزارش اشکال