فهرست مطالب

دولت و حقوق - سال پنجم شماره 1 (پیاپی 15، بهار 1403)

نشریه دولت و حقوق
سال پنجم شماره 1 (پیاپی 15، بهار 1403)

  • تاریخ انتشار: 1403/03/11
  • تعداد عناوین: 8
|
  • سید محمدمهدی غمامی صفحات 1-8
  • سید حسین هاشمی* صفحات 9-30

    در پاسخ به توسعه سریع هوش مصنوعی، نظام های حقوقی گوناگون مداخلات نظارتی و تنظیمی مختلفی را برای این فناوری ایجاد کرده اند. درحالی که برخی کشورها حمایت از مصرف کننده را از طریق وضع مقررات سخت گیرانه در اولویت قرار می دهند، برخی دیگر با اتخاذ رویکردی سهل گیرانه تر، نوآوری را ترویج می کنند. بااین حال، مقایسه الگوهای مختلف تنظیم گری هوش مصنوعی می تواند به یافتن تعادل مناسب میان نوآوری و حمایت از مصرف کننده در برابر مخاطرات هوش مصنوعی کمک کند. این مقاله با روش توصیفی-تحلیلی و مطالعه تطبیقی در پی پاسخ به این پرسش است که سیاست تنظیمی ایران در زمینه هوش مصنوعی چیست؟ بررسی الگوهای تنظیم گری هوش مصنوعی در اتحادیه اروپا، ایالات متحده و چین نشان می دهد که هر نظام حقوقی برای یافتن الگو باید متناسب با اهداف، سیاست ها، اقتضائات و ویژگی های نظام حقوقی و فناوری خود این موضوع را سامان دهد. نظام حقوقی ایران در پاسخ به این فناوری و عموم فناوری های نوظهور مانند هوش مصنوعی، از خلاهای جدی ساختاری و هنجاری رنج می برد. مقام معظم رهبری در سال 1400، توسعه فناوری هوش مصنوعی و سامانه های مبتنی بر آن را به عنوان یکی از سیاست های کلان کشور اعلام فرمود. سیاست توسعه هوش مصنوعی بدون توجه به این خلاهای ساختاری و هنجاری، افزون بر در معرض خطر قرار دادن حقوق شهروندان به صورت بالقوه، توسعه کسب وکارهای حوزه هوش مصنوعی را نیز با چالش جدی مواجه می کند.

    کلیدواژگان: هوش مصنوعی، قانون گذاری، تنظیم گری، سیاست تنظیمی، خطر و کنترل، فرصت و نوآوری
  • محمود عباسی، مهرداد تیموری* صفحات 31-44
    امروزه فناوری های نوین به سرعت در حال تکامل است. در این میان هوش مصنوعی با پیشرفت روزافزون خود مزایای بالقوه زیادی برای بشر ارائه می دهد. چنین فناوری ای نیاز به پردازش و تجزیه وتحلیل مقادیر زیادی از داده ها و نیز دسترسی به حجم بزرگی از کلان داده ها دارد. بااین حال، باید مسائل اخلاقی هوش مصنوعی در فضای رقومی به منظور جلوگیری از سوءاستفاده شناسایی شود و مورد توجه قرار گیرد. ازاین رو باید اصول اخلاقی در سامانه مبتنی بر هوش مصنوعی در نظر گرفته شود و دستورالعمل هایی برای کاربرانی که فناوری های هوش مصنوعی را اجرا می کنند، ارائه شود که از آن می توان به عنوان اخلاق رقومی نام برد. پرسش اصلی مقاله این است که «هوش مصنوعی چه مخاطرات اخلاقی ای در پی دارد و آیا امکان بیمه مسئولیت برای سامانه مبتنی بر هوش مصنوعی وجود دارد؟». روش پژوهش این مقاله از نوع نظری و ابزار جمع آوری داده کتابخانه ای و روش تجزیه وتحلیل داده توصیفی- تحلیلی است که بر اساس یافته های پژوهش، مهم ترین چالش های اخلاقی هوش مصنوعی شامل نگرانی های اخلاقی مربوط به جمع آوری و استفاده غیرمجاز از داده های شخصی است که منجر به نقض حریم خصوصی و کرامت انسانی می شود. از سویی یکی از موارد نگرانی عدم رعایت اصول اخلاقی سوگیری و امنیت داده ها است. درنتیجه، ضمن تلاش برای توسعه استانداردهای اخلاقی با نظارت و پاسخ گویی برای هوش مصنوعی و فضای رقومی، به منظور استفاده از هوش مصنوعی در فضای رقومی و مسئولیت قصور در محیط های رقومی، بیمه مسئولیت رقومی پیشنهاد می شود. ارائه دهندگان فناوری های رقومی ممکن است برای رسیدگی به مسائل مربوط به مسئولیت بالقوه خاص این محیط ها، نیاز به بیمه نامه تخصصی قصور داشته باشند. بیمه گران باید سیاست هایی ایجاد کنند که منعکس کننده خطرات منحصربه فرد مرتبط با محیط های رقومی باشد.
    کلیدواژگان: اخلاق رقومی، هوش مصنوعی، مسئولیت مدنی، حریم خصوصی، کرامت انسانی، حقوق بشر
  • مصطفی هراتی*، سمیرا هراتی قوی صفحات 45-58
    در دنیای امروز هوش مصنوعی به دلیل توانایی در حل بسیاری از مشکلات دنیای واقعی، به طور فزاینده ای مورد توجه قرار گرفته است. این فناوری در حوزه های مختلفی مانند پزشکی، بانکداری و تولید نفوذ کرده است. با وجود گسترش زیاد هوش مصنوعی در این زمینه ها، جایگاه آن در حوزه حقوق هنوز چندان پررنگ نیست. هوش مصنوعی به طور فزاینده ای باعث پیشرفت در فناوری و تجارت می شود و به طور گسترده در صنایع مختلف مورد استفاده قرار می گیرد. تاثیرات هوش مصنوعی را می توان تقریبا در هر جنبه ای از خلاقیت یافت. توسعه هوش مصنوعی با حجم زیاد داده و افزایش قدرت محاسباتی در دسترس تسهیل می شود. قانون گذاران باید همت لازم را در شناسایی آن به کار گیرند؛ به خصوص که هوش مصنوعی جنبه های مختلفی از عالم حقوق مانند حقوق رقابت و کسب وکار را تحت شعاع خود قرار داده است. در حقوق رقابت ما درصددیم که تعادل و توازن عادلانه ای در کسب سود و منفعت اقتصادی میان حرفه های مختلف وجود داشته باشد، اما این فناوری جدید در عمل اصول حقوق رقابت را دچار چالش کرده است. ما نباید این موضوع را به عنوان مشکل و معضل حقوقی تعبیر کنیم، بلکه باید در مقام آن باشیم که حداکثر بهره برداری را از طریق ایجاد همزیستی مسالمت آمیز حقوقی میان این دو نهاد به دست آوریم. در این پژوهش در مقام آن هستیم که با بررسی تطبیقی، خلاهای موجود را مورد بررسی قرار دهیم.
    کلیدواژگان: هوش مصنوعی، فناوری، رقابت، کسب وکار، الگوریتم ها
  • امین قاسم پور*، نازنین زهرا صفائی صفحات 59-80
    هوش مصنوعی به سرعت در حال تحول دنیای ماست و حوزه اشتغال و حقوق کار نیز از این قاعده مستثنا نیست. نفوذ هوش مصنوعی در وظایف و فعالیت های پیش تر انجام شده توسط انسان، نگرانی هایی را در مورد جایگزینی نیروی کار انسانی و پیامدهای آن بر اشتغال، حقوق کار و ثبات اجتماعی ایجاد کرده است. هوش مصنوعی ظرفیت خودکارسازی بسیاری از وظایف را دارد که می تواند منجر به از دست رفتن برخی مشاغل شود. بااین حال، هوش مصنوعی می تواند مشاغل جدیدی نیز ایجاد کند و عملکرد موجود را ارتقا دهد. تاثیر کلی هوش مصنوعی بر اشتغال به عوامل مختلفی ازجمله نرخ اتوماسیون، مهارت های نیروی کار و سیاست های حمایتی دولت بستگی دارد. ظهور هوش مصنوعی در فضای کاری چالش های حقوقی و اخلاقی متعددی را ازجمله تبعیض الگوریتمی، نقض حریم خصوصی داده ها و مسئولیت پذیری به وجود می آورد که نیازمند پاسخ گویی است. این مقاله با رویکرد توصیفی-تحلیلی، راهکارهای حقوقی برای مقابله با چالش های هوش مصنوعی در حوزه کار را ارائه می دهد. این راهکارها شامل اصلاح قوانین موجود، تدوین قوانین جدید، ارتقای آگاهی و آموزش و حمایت از حقوق کارگران است. هدف از این مقاله، ارائه چشم اندازی جامع از مسائل حقوقی ناشی از هوش مصنوعی در زمینه حقوق کار و ارائه راهکارهای عملی برای تضمین حقوق کارگران در عصر هوش مصنوعی است.
    کلیدواژگان: هوش مصنوعی، حقوق کار، اشتغال، چالش، کارگر
  • میلاد حاجی اسماعیلی* صفحات 81-98
    هوش مصنوعی با پیشرفتی متحیرکننده در حال استحصال توانایی هایی است که تا پیش از آن، منحصرا به دست آدمی صورت می گرفت. چنین موضوعی فارغ از پیچیدگی های فنی، مستلزم واکاوی همه جانبه نخبگان علوم انسانی برای پاسخ به چالش های نوظهور است. یکی از چالش ها در حوزه حقوق، مداقه در موضوع مسئولیت هوش مصنوعی است. هدف مقاله حاضر یافتن پاسخ این پرسش است که در صورت ایجاد آسیب با هوش مصنوعی، چه اشخاصی باید مسئول شناخته شوند؟ ضمن امعان نظر به اینکه نظام حقوقی ایران تا به اکنون، مقررات ویژه ای پیرامون هوش مصنوعی نداشته است، با تتبع در امور مشابه چنین استدلال می شود که مسئولیت کاربر هوش مصنوعی، مبتنی بر تقصیر است و مسئولیت سازنده نیز در قانون حمایت از مصرف کنندگان در هاله ای از ابهام قرار دارد. با نگاهی تطبیقی به اتحادیه اروپا نیز یافت می شود که مسئولیت کاربر با اندکی تفاوت، همچنان مبتنی بر تقصیر است، اما مسئولیت سازنده، مطلق است. باوجوداین، هیچ یک از این دو نظام حقوقی تا به حال، برای هوش مصنوعی، شخصیت جداگانه قائل نشده است و آن را بیش از یک شیء تلقی نمی کند. مقاله پیش رو بر این مبنا استوار است که با توجه به خصایص منحصربه فرد هوش مصنوعی هر دو مقررات مورد بررسی ناکارآمد و شایسته است برای جلوگیری از تضییع حقوق آسیب دیده، برای هوش مصنوعی شخصیتی مستقل تعریف شود.
    کلیدواژگان: شخصیت مستقل هوش مصنوعی، مسئولیت کاربر و سازنده هوش مصنوعی، مقررات گذاری، ایران، اتحادیه اروپا
  • سید علی حسینی* صفحات 99-122

    هوش مصنوعی بر فناوری هایی مانند یادگیری ماشین و شبکه های عصبی یادگیری عمیق بنا شده است که عملکرد هریک از آن ها وابسته به حجم عظیمی از داده های باکیفیت است. داده های شخصی منبعی اجتناب ناپذیر برای توسعه هوش مصنوعی و بهبود کارایی الگوریتم های هوش مصنوعی است. داده های شخصی منتسب به اشخاص است و بخشی از حقوق و تکالیف شخص در فضای آنالوگ، حسب مورد می تواند ارتباط وثیقی با پردازش صحیح آن داشته باشد که منافع شخص موضوع داده را تامین کند و آسیبی علیه وی ایجاد نکند. پیش از ظهور هوش مصنوعی حجم پردازش داده های شخصی به نسبت هوش مصنوعی بسیار کم و محدود بود؛ به گونه ای که مقررات عمومی حفاظت از داده های شخصی اتحادیه اروپا (2016)، تکالیفی را برای هر مورد از پردازش داده های شخصی برای کنترلگر الزام کرده و نیز حقوقی را برای پردازش هریک از داده های شخصی برای شخص موضوع داده پیش بینی کرده است (رویکرد کنترلی)، اما با در نظرگرفتن ماهیت فنی هوش مصنوعی، امکان اعمال قواعد کنترلی بر پردازش الگوریتمی داده های شخصی با مشکلاتی همراه است. در این مقاله ضمن بررسی چالش های مقررات عمومی حفاظت از داده های شخصی در حفاظت از داده های شخصی (به عنوان مشهورترین نماینده این رویکرد) تحت پردازش سامانه های هوش مصنوعی، راهکار تقنینی حفاظت از داده شخصی در حوزه هوش مصنوعی مورد تحلیل قرار می گیرد. پرسش اصلی مقاله حاضر این است که قانون گذاری حفاظت از داده شخصی در پردازش الگوریتمی با چه چالش هایی مواجه است و رژیم حقوقی جایگزین برای حل این چالش ها چیست؟ این پژوهش به روش توصیفی- تحلیلی انجام شده است.

    کلیدواژگان: هوش مصنوعی، داده شخصی، مقررات عمومی حفاظت از داده های شخصی، حقوق اساسی، پردازش داده
  • حامد اجاقی*، فاطمه سلیمانی روزبهانی، ایمان ظهوریان نادعلی صفحات 123-150
    هوش مصنوعی به عنوان حوزه فناورانه نوظهور به سرعت در حال توسعه و بهره برداری در سطح جهان است. هنجارگذاری و تنظیم گری این حوزه فناورانه هم بر سرعت رشد آن  تاثیر دارد و هم با کاهش آثار منفی احتمالی، سطح بهره برداری از آن را افزایش می دهد. دستیابی به این دو هدف یعنی تسریع سرعت رشد و نیز کنترل عوارض جانبی برای افزایش میزان استفاده از هوش مصنوعی به واسطه اهرم هنجارگذاری و تنظیم گری نیازمند نگاه کلان هدایتگر است. بر مبنای این ضرورت، پژوهش حاضر به دنبال پاسخ به این پرسش است که فرایند هنجارگذاری در زمینه هوش مصنوعی چگونه حاصل می شود؟ برای این منظور به کمک روش توصیفی- تحلیلی، مفهوم دکترین به عنوان ابزار بالادستی هماهنگ کننده و هم افزا معرفی و سپس چهارچوب تطور دکترینی هوش مصنوعی ارائه می شود. دستاورد اصلی پژوهش حاضر ارائه چهارچوبی نظری درباره روش شناسی هنجارگذاری هوش مصنوعی است. این چهارچوب مشتمل بر چهار سطح تطوری شامل ارشادی، توصیفی، ساختاری و ایجابی است که کارکردهای رونق شکوفایی، رشد ادراک، رفع موانع و تعمیم قواعد را دارد. در نهایت، به شواهدی از تحول دکترینی هوش مصنوعی در کشورهای مختلف اشاره شده است.
    کلیدواژگان: هنجارگذاری، هوش مصنوعی، تنظیم گری
|
  • Seyed Hossein Hashemi * Pages 9-30

    In response to the rapid development of artificial intelligence (AI), various legal systems have created different regulatory and supervisory interventions for this technology. While some countries prioritize consumer protection by imposing stringent regulations, others adopt a more permissive approach to promote innovation. However, comparing different models of AI regulation can help find the right balance between innovation and protecting consumers against the risks of AI. This paper, using a descriptive-analytical method and a comparative study, seeks to answer the question of what Iran's regulatory policy on artificial intelligence is. An examination of AI regulatory models in the European Union, the United States, and China indicates that each legal system must organize this matter according to its own objectives, policies, requirements, and characteristics of the legal system and technology. Iran's legal system suffers from serious structural and normative gaps in responding to this technology and other emerging technologies like AI. In 2021, the Supreme Leader of Iran declared the development of AI technology and its related systems as one of the country's macro-policies. However, the policy of developing artificial intelligence without addressing these structural and normative gaps not only potentially endangers the rights of citizens but also seriously challenges the development of AI-based businesses.

    Keywords: Artificial Intelligence (AI), Legislation, Regulation, Regulatory Policy, Risk, Control, Opportunity, Innovation
  • Mahmoud Abbasi, Mehrdad Teymouri * Pages 31-44
    Today, new technologies are evolving rapidly, and in the meantime, artificial intelligence offers many potential benefits to mankind with its ever-increasing progress. Such technology requires the processing and analysis of significant amounts of data, as well as access to large volumes of big data. However, the ethical issues of artificial intelligence in the digital space must be identified and taken into account to prevent abuse. Therefore, ethical principles should be considered in the artificial intelligence-based system and guidelines should be provided for users who implement artificial intelligence technologies; which can be called digital ethics. Therefore, the main question of the paper is "What are the moral risks of artificial intelligence and is it possible to create liability insurance for artificial intelligence-based systems?". The research method of this paper is theoretical and based on a library data collection tool, and the data analysis method is descriptive-analytical. According to the findings of the research, the most important ethical challenges of artificial intelligence include ethical concerns related to the collection and unauthorized use of personal data, which will lead to the violation of privacy and human dignity. On the other hand, one of the concerns is non-compliance with the ethical principles of bias and data security. As a result, while trying to develop ethical standards with monitoring and accountability for artificial intelligence and digital space, digital liability insurance suggested in utilization of artificial intelligence in the digital space of liability and negligence in digital environments. Providers of digital technologies may require specialized malpractice insurance to address potential liability issues specific to these environments. Insurers must develop policies that reflect the unique risks associated with digital environments.
    Keywords: Digital Ethics, Artificial Intelligence, Civil Responsibility, Privacy, Human Dignity, Human Rights
  • Mostafa Harati *, Samira Harati Ghavi Pages 45-58
    In today's world, artificial intelligence is increasingly gaining attention due to its ability to solve many real-world problems. This technology has penetrated various fields such as medicine, banking, and manufacturing. Despite the significant expansion of artificial intelligence in these fields, it does not have a prominent position in law yet. Artificial intelligence (AI) is increasingly driving advances in technology and business. It is widely used in various industries and the effects of artificial intelligence can be found in almost every aspect of creativity. The development of artificial intelligence is facilitated by large volumes of data and increasing available computing power. Legislators should make the necessary effort to identify it, especially since artificial intelligence has brought various aspects of the legal world under its influence, such as competition and business rights. In competition law, we try to make a fair balance in obtaining profit and economic benefit between different words, but this new technology has challenged the principles of competition law in practice. it should not be interpreted as a legal problem. We should obtain maximum utilization by creating a peaceful legal coexistence between these two institutions. This paper seeks to investigate the existing gaps by comparative study.
    Keywords: Artificial Intelligence, Technology, Competition, Business, Algorithms
  • Amin Ghasempour *, Nazanin Zahra Safaei Pages 59-80
    Artificial intelligence (AI) is rapidly transforming our world, and there is no exception even in the field of employment and labor rights. The pervasiveness of AI in tasks and activities previously performed by humans has raised concerns about the displacement of human labor and its implications for employment, labor rights, and social stability. AI has the potential to automate many tasks, which could lead to the loss of some jobs. However, AI can also create new jobs and enhance existing performance. The overall impact of AI on employment will depend on various factors, including the rate of automation, workforce skills, and government support policies. The emergence of AI in the workspace presents several legal and ethical challenges, including algorithmic discrimination, data privacy breaches, and accountability, that require addressing. This paper adopts a descriptive-analytical approach to provide legal solutions to address AI challenges in the field of work. These solutions include amending existing laws, enacting new regulations, raising awareness and education, and protecting workers' rights. The aim of this paper is to provide a comprehensive overview of the legal issues arising from AI in the context of labor rights and to offer practical solutions to ensure workers' rights in the AI era.
    Keywords: Artificial Intelligence, Labor Law, Employment, Legal Challenges, Worker
  • Milad Haji Esmaeili * Pages 81-98
    Artificial intelligence (AI), with astonishing progress, is exploiting abilities that were previously under human dominance. Regardless of technical complications, this enigma requires a comprehensive analysis of humanities elites to respond to emerging challenges. One of these challenges in the field of law is the AI liability. If damage is caused by AI, then who should be held liable? Noting that Iran's legal system currently does not have specific regulations on AI, following similar issues, it is argued that the user of AI is liable based on fault and the liability of the producer is vague. A comparative study of the European Union regulations shows that the liability of the user is based on fault, with a slight difference, while the liability of the producer is absolute. However, none of these legal systems have given a separate character to AI and do not consider it as more than one object. This paper considers the unique characteristics of AI and believes that both of the reviewed regulations are ineffective. Therefore, it is appropriate to define an independent personality for AI to prevent the infringement of the injured rights.
    Keywords: Independent Personality Of AI, Liability Of The Operator, Producer Of AI, Comparative Regulation Of The Iran, European Union
  • Seyed Ali Hosseini * Pages 99-122

    Artificial intelligence is built on technologies such as machine learning and deep learning neural networks, whose performance relies on a vast amount of high-quality data. Personal data is an indispensable resource for the development of artificial intelligence and the improvement of the efficiency of AI algorithms. Personal data is attributed to individuals and part of an individual's rights and obligations in the analog space can, depending on the case, have a close connection with its proper processing, which ensures the benefits for the data subject and prevents harm against them. Before the advent of artificial intelligence, the volume of personal data processing was relatively small and limited compared to AI; thus, the General Data Protection Regulations (2016) has mandated duties for each instance of personal data processing for the controller and has also determined rights for the data subject regarding each instance of personal data processing. However, considering the technical nature of artificial intelligence, the application of these rules to the algorithmic processing of personal data is fraught with difficulties. This article examines the challenges of the GDPR in protecting personal data under the processing of AI systems and analyzes legislative solutions for protecting personal data in the field of artificial intelligence. The major question of this article is, what is the legislative solution to overcome the challenge of personal data protection in algorithmic processes? This research is conducted using a descriptive-analytical method.

    Keywords: Artificial Intelligence, Personal Data, GDPR, Fundamental Rights, Data Processing
  • Hamed Ojaghi *, Fatemeh Soleymani Roozbahani, Iman Zohoorian Nadali Pages 123-150
    Artificial intelligence as an emerging technological field is rapidly developing and exploiting globally. The normative and regulation of this technological field has both a positive effect on its growth rate and in other side increases the level of its exploitation by reducing possible negative effects. Achieving these two goals, i.e., accelerating the speed of growth and simultaneous controlling side effects to increase the amount of use of artificial intelligence, through the lever of normative and regulation, requires a guiding macro view. Based on this necessity, the current research seeks to answer the question of how such a normalization process is achieved in the field of artificial intelligence. A descriptive-analytical method has been used. for this purpose. Therefore, in order to cover all aspects, the current research considers the broad meaning in relation to standardization; Therefore, artificial intelligence standardization is defined as a set of laws, rules, regulations and everything trying to somehow bind the field of the technology. Then, the concept of doctrine has been introduced as an upstream policy tool to coordinate and synergize multiple norms emanating from multiple sources. In the next step, it is discussed that the normative process is affected by the socio-political context and the stage of artificial intelligence development. Therefore, the guiding doctrine of artificial intelligence standardization during the evolution of this technology in the country is not fixed and it evolves depending on the conditions. In this regard, four stages have been introduced for the process of doctrinal evolution, including directive, descriptive, structural and positive.In this doctrinal evolution,the general approach changes from a recommendation paradigm to a norm prescription paradigm.In the first stage,guidance doctrine prevails,that is,guidance norms that are currently non-mandatory are presented.
    Keywords: Normativisation, Doctrine, Artificial Intelligence, Regulation