آرشیو سه‌شنبه ۱۴ آبان ۱۳۹۸، شماره ۴۷۴۵
بازار دیجیتال
۱۷

مرکز پژوهش‎های مجلس بررسی کرد : حکمرانی هوش مصنوعی با همکاری جهانی

دنیای اقتصاد : فرصت های ایجاد شده با پیشرفت های تکنولوژیک به‎ویژه حوزه هوش مصنوعی در بخش های مختلف قابل توجه است. به نظر متخصصان مختلف، در چند دهه آینده، قابلیت های مختلف هوش مصنوعی خود را نشان داده و به این ترتیب به شکل رادیکالی قدرت، ثروت و رفاه موجود را متحول می کند. تحولی که از نظر دامنه تغییرات با انقلاب صنعتی قابل مقایسه است. در مقابل توسعه و پیشرفت این فناوری جدید، مخاطرات ممکن نیز کم نبوده و پیشرفت های آن جامعه بشری را با چالش های فراوانی در حوزه حکمرانی مواجه می کند. از جمله این مخاطرات می توان به جابه جایی نیروی کار، نابرابری، دگرگونی در قدرت ملی، بی ثباتی استراتژیک یا حتی از بین بردن برخی ارزش‎ها اشاره کرد. با این حال، هوش مصنوعی با توجه به قابلیت‎هایی که دارد مورد استقبال رهبران حکومت‎ها و شرکت‎های بزرگ قرار گرفته و تقاضای این تکنولوژی نوین روز به روز در حال افزایش است. به این ترتیب، جهان در حال انتقال به دنیای مجهز به هوش مصنوعی است.

حکمرانی هوش مصنوعی در واقع مطالعه چگونگی مدیریت گذار به سیستم های هوش مصنوعی پیشرفته با تمرکز بر ابعاد گوناگون سیاسی، اقتصادی، نظامی، حکومتی و اخلاقی است. حکمرانی هوش مصنوعی اغلب در کنار سلامت و ایمنی هوش مصنوعی قرار داده می شود، البته هدف هر دوی آنها کمک به بشریت برای استفاده مفید هرچه بیشتر از هوش مصنوعی است، اما با این تفاوت که حکمرانی هوش مصنوعی بر نهادها و زمینه هایی که هوش مصنوعی ساخته شده و استفاده می شود، متمرکز است. در این راستا، مرکز پژوهش های مجلس گزارشی با عنوان «درآمدی بر حکمرانی هوش مصنوعی» منتشر کرده که سیاست هوش مصنوعی را با رویکرد پویایی میان دولت ها، کمپانی های بزرگ و جامعه و ساختارهای ممکن برای گذار به مدیریت هوش مصنوعی بررسی می کند.

براساس این گزارش، حکمرانی مطلوب هوش مصنوعی به بررسی ترتیبات جهانی بالقوه برای پاسخ به این پرسش می پردازد که انواع مختلف هوش مصنوعی چه بوده و چه کسانی و با چه اهدافی و در چه دشواری هایی کاربردی شده و توسعه یافته اند؟ همچنین حکمرانی مطلوب هوش مصنوعی دربرگیرنده چالش های انجام شده برای شناسایی مدل های ایده آل حکمرانی جهانی نیز است. به این منظور بر گسترش هر چه بیشتر ابزارهای موثر ایجاد ارتباط با همدیگر و منافع بالقوه در همکاری های مشترک تاکید شده است. همچنین ضرورت ائتلاف جهانی در حوزه هوش مصنوعی که به شکل ایده آلی تعهداتی اساسی به نفع عمومی داشته و دربرگیرنده مکانیزم های نهادی برای تضمین اصولی همچون عدم تهدید دیگران باشد، گوشزد شده است. در هر صورت، انسان ها خواستار فراهم کردن امنیت و تضمین ایمنی هوش مصنوعی از طرف حکومت هایشان هستند تا گسترش تکنولوژی های نوین آنها را با مخاطرات جدی روبه رو نکند. چنین دغدغه ای نیازمند کنترل تمرکزگرا بر توسعه هوش مصنوعی یا نظارت گسترده بر پروژه های مختلف هوش مصنوعی است. چنین امنیتی احتمالا از طریق همکاری گروه های مختلف در جهان امکان پذیر می شود و احتمالا نیازمند تمرکز قدرت و ثروت است.

سیاست هوش مصنوعی

هوش مصنوعی ماهیت ثروت و قدرت را دگرگون می کند. به این ترتیب، منافع بازیگران تغییر کرده و ممکن است بازیگران جدیدی ظهور کنند. این بازیگران برای پیشبرد منافع خود به رقابت یا همکاری در سایه هوش مصنوعی بپردازند و به دنبال آن توسعه هوش مصنوعی را رقم بزنند. در واقع، رابطه ای دو طرفه شکل می‎گیرد که در یک طرف آن منافع یا سیاست‎ها به کمک هوش مصنوعی تغییر می‎کند و در طرف دیگر مقدمات پیشرفت این پدیده جدید فناورانه مهیا می‎شود. هوش مصنوعی و تکنولوژی های مربوطه علاوه بر دگرگون کردن توزیع قدرت در داخل کشورها و ساختارهای سیاسی داخلی، می‎تواند به توانمندسازی شهروندان کمک کند. در واقع، به شهروندان این امکان را می دهند که به شکلی آگاهانه تر در فرآیندهای سیاسی مشارکت کنند. از طرفی، هوش مصنوعی و تکنولوژی های هم پیوند با آن پیامدهای مهمی برای امنیت ملی و بین المللی دارند. در بلندمدت نیز هوش مصنوعی به سرمایه ای اساسی برای کشورها بدل می شود و ممکن است دولت ها بکوشند تا هر آنچه به بخش D&R هوش مصنوعی مربوط می شود را کنترل و امنیتی کنند.

البته توسعه هوش مصنوعی ممکن است پیامدهای منفی نیز برای جوامع داشته باشد. برای نمونه، می‎تواند منجر به افزایش نابرابری میان مردم و احتمالا کشورها شود. هوش مصنوعی باعث جابه جایی در شغل های مربوط به طبقه متوسط شده و حداقل روند کوتاه مدت از  از بین رفتن بعضی از مشاغل با درآمد پایین حکایت دارد و سهم کار در درآمدهای ملی کاهش می‎یابد. هوش مصنوعی نوعی انحصارطلبی جهانی از سوی غول‎های دیجیتالی ایجاد می‎کند. اگر روند موجود که در آن تمرکز بر منافع حاصل از هوش مصنوعی عمدتا در اختیار شرکت‎های بزرگ مانند گوگل است ادامه یابد احتمالا شاهد نوعی از انحصارگرایی در به کارگیری و استفاده در حوزه هوش مصنوعی در سطح جهانی خواهیم بود. در این میان، کشورهایی که فاقد صنایع هوش مصنوعی هستند نگرانند که از چرخه منافع جهانی حاصل از هوش مصنوعی به حاشیه رانده شوند.

به هر حال، امروزه تحقیقات اساسی مربوط به هوش مصنوعی به شکلی آزاد انجام می شود: محققان علاقه زیادی به انتشار عمومی یافته هایشان برای کسب اعتبار دارند، البته بعضی از تحقیقات پنهانی و برای منافع خصوصی انجام می شود، با این حال، خصوصی بودن تحقیقات مربوط به هوش مصنوعی امری رایج نیست. در صورتی که هوش مصنوعی به عنوان دانش خطرناک یا از نظر اقتصادی و نظامی استراتژیک تلقی شود، احتمالا چنین روندی تغییر خواهد کرد. البته به هر میزان که احتمال فاجعه بار بودن گسترش عمومی هوش مصنوعی برود ممکن است دانشمندان هوش مصنوعی بخواهند از انتشار قابلیت های هوش مصنوعی برای دیگران ممانعت به عمل آورند.

همچنین هوش مصنوعی پیشرفته می تواند ثروت و قدرت فراوانی را در اختیار صاحبان آن قرار دهد. اگر چنین چیزی درست باشد و مخصوصا احساس شود که منافع اقتصادی و نظامی استراتژیک برداشتن هوش مصنوعی مترتب است پس باید انتظار وقوع رقابتی بین المللی را بر سر هوش مصنوعی داشت. به دلیل مزایای فراوان در اختیار داشتن هوش مصنوعی پیشرفته احتمال می رود که بازیگران مختلف چندان به فکر ایجاد توازن میان در اختیار داشتن آن با ارزش هایی همچون سلامت، شفافیت، مسوولیت پذیری و مردم سالاری نباشند. به ویژه نگرانی اصلی اینجاست که در کاربرد سیستم های پیشرفته هوش مصنوعی به احتیاط های لازم توجه نکنند.

به هر حال، با افزایش رقابت های شدید بر سر هوش مصنوعی لازم است راه هایی برای اجتناب از آن اندیشیده شود. از راهکارهایی که برای اجتناب از وقوع رقابت های شدید و متخاصمانه بر سر هوش مصنوعی می توان به کار گرفت استفاده از وضع استانداردها، تایید، اجرا و کنترل توسط طرف سوم است. مدل نخستی که می توان به کار گرفت و با قاطعیت می توان گفت قابلیت اجرایی دارد، تاسیس آژانس بین المللی برای تعریف استانداردهای ایمنی در حوزه هوش مصنوعی و الزام به اجرای آن است. چنین قدمی به عنوان مرحله ای اساسی در دستیابی به دانش مشترک درباره آن چیزی است که می توان توافق نامه در زمینه هوش مصنوعی نامید. مدل دیگر، ایجاد سازمانی است که خود قابلیت های وضع همکاری و ایجاد توافق های جدید را داشته باشد. مدل آخر نیز ایجاد چارچوبی جهانی برای هوش مصنوعی است که خارج از کنترل قدرت های بزرگ بوده و انحصار تکنولوژی استراتژیک (نظامی) را در اختیار داشته باشد، البته این مدل نیازمند دقت فراوان در طراحی سازمانی است تا انگیزه های همکاری جویانه در میان همه طرف ها را تضمین کند.