شناسه خبر : 35082

کشورهای مختلف برای کنترل هوش مصنوعی چه قوانینی گذاشتند؟

کشورهای مختلف برای کنترل هوش مصنوعی چه قوانینی گذاشتند؟

هوش مصنوعی از زمان ورود به زندگی انسان توانست قدرت خود را به نمایش بگذارد؛ تا جایی که امروز، ترس از نابودی بشریت توسط این فناوری قدرتمند، کشورهای مختلف را به تکاپوی قانون‌گذاری برای مدیریت و کنترل آن واداشته است.

به گزارش چابک آنلاین به نقل از فارس، نگرانی در مورد تسلط هوش مصنوعی بر انسان همیشه یک پای ثابت سریال‌ها ‌و فیلم‌های سینمایی بوده اسن. این نگرانی‌ها بعد از معرفی ربات گفت‌و‌گوی «چت‌جی‌پی‌تی» و مدل‌های زبانی پیشرفته، رنگ واقعیت بیشتری به خود گرفت و بسیاری از کشورها را بر آن داشت تا راه‌هایی برای نظارت بر هرگونه رشد کنترل‌نشده هوش مصنوعی بیابند.

بسیاری از قوانین و مقررات مربوط به هوش مصنوعی به منظور محدود کردن رشد غیرقابل کنترل آن و جلوگیری از پیامدهای نامطلوب آینده در حال بررسی هستند.

برخی از موارد شامل توسعه راهنماها و اصول اخلاقی در طراحی و استفاده از هوش مصنوعی، تشکیل سازمان‌ها و موسسات نظارتی بر هوش مصنوعی و تعیین مرزها و محدودیت‌های قانونی برای فعالیت هوش مصنوعی می‌باشد. در این مطلب، نگاهی به برنامه ریزی کشورها و قانون‌گذاران در مورد مقررات هوش مصنوعی می اندازیم.

برزیل

برزیل در حال کار بر روی اولین قانون خود برای تنظیم هوش مصنوعی است. در 1 دسامبر 2022،(10آذر1401) یک کمیسیون قضایی غیردائم سنای برزیل گزارشی با مطالعاتی در مورد مقررات هوش مصنوعی، از جمله پیش‌نویسی برای تنظیم هوش مصنوعی ارائه کرد.

این پیش نویس اکنون به عنوان نقطه شروعی برای بررسی بیشتر سنا در مورد قوانین جدید هوش مصنوعی عمل می کند. به گفته گزارشگر کمیته، مقررات هوش مصنوعی بر سه رکن اصلی استوار است: تضمین حقوق افراد متاثر از سیستم، طبقه‌بندی سطح ریسک و پیش‌بینی اقدامات حاکمیتی برای شرکت‌هایی که سیستم هوش مصنوعی را ارائه یا اجرا می‌کنند.

این پیش نویس شباهت های واضحی با پیش نویس قانون هوش مصنوعی اتحادیه اروپا دارد. تعریف سیستم‌های هوش مصنوعی کاملاً شبیه به پیش‌نویس قانون کمیسیون اروپا است (که هنوز در حال بحث است): هوش مصنوعی به عنوان سیستم رایانه‌ای با درجات مختلف استقلال با استفاده از رویکردهای مبتنی بر یادگیری ماشین طراحی شده تا از داده‌های ورودی ماشین‌ها یا انسان‌ها چگونگی دستیابی به مجموعه‌ای از اهداف را استنتاج کند. هدف از انجام پیش بینی ها، توصیه ها یا تصمیماتی است که می تواند بر محیط مجازی یا واقعی تأثیر بگذارد.

بریتانیا

بریتانیا در ماه مارس(اسفند-فروردین) تصمیم گرفت به جای ایجاد یک نهاد جدید اختصاص داده شده به هوش مصنوعی، مسئولیت نظارتی آن را بین آن دسته از نهادهایی که بر حقوق بشر، سلامت و ایمنی و رقابت نظارت می‌کنند، تقسیم کند.

«ریشی سوناک» نخست وزیر بریتانیا در جریان سفر هفته گذشته خود به واشنگتن گفت بریتانیا در اواخر سال جاری میزبان یک نشست جهانی در مورد ایمنی هوش مصنوعی خواهد بود تا خطرات آن را بررسی و درباره چگونگی کاهش آنها از طریق اقدامات هماهنگ بین‌المللی بحث کند.

چین

شورای دولتی چین برای اولین بار در سال 2017 (1395)«برنامه توسعه هوش مصنوعی نسل بعدی» را ایجاد کرد. در سال 2021 (1400)دستورالعمل های اخلاقی برای مقابله با هوش مصنوعی منتشر شد.

سپس چین در ژانویه 2022(1402)، دو قانون مربوط به برنامه های کاربردی خاص هوش مصنوعی را منتشر کرد.

در حالی که مقررات مربوط به مدیریت توصیه های الگوریتمی (Algorithm Provisions) از مارس 2023(اسفند-فروردین امسال) لازم الاجرا شده است، مقررات مربوط به مدیریت عمیق خدمات اطلاعات اینترنتی (Draft Deep Synthesis Provisions) هنوز در مرحله پیش نویس است.

این مقررات به سوء استفاده از سیستم‌های توصیه‌گر الگوریتمی می‌پردازد. آنها شامل مقرراتی در مورد مدیریت محتوا، برچسب‌گذاری، شفافیت، حفاظت از داده‌ها و شیوه‌های منصفانه هستند.

مقررات اضافی در موارد خاصی اعمال می شود: برای مثال در مورد افراد زیر سن قانونی یا خدمات تجارت الکترونیک و جریمه هایی معادل حدود یک هزار و 570 تا 15هزار و705 دلار آمریکا ممکن است برای عدم رعایت آنها اعمال شود.

اداره فضای سایبری چین (CAC) رایزنی خود را در مورد پیش نویس اقدامات اداری برای خدمات هوش مصنوعی مولد در 10 می 2023 (20اردیبهشت1402) به پایان رساند. پیش نویس مقررات تصریح می کند که محصولات جدید هوش مصنوعی که در چین تولید شده اند باید قبل از انتشار عمومی در اختیار ارزیاب ایمنی قرار گیرند.

به طور خاص، این مقررات محتوای تولید شده توسط هوش مصنوعی را ملزم می‌کند که واقعی و دقیق باشد و محتوایی را که قدرت دولتی را تضعیف می‌کند یا حاوی تبلیغات تروریستی یا افراطی، خشونت، اطلاعات ناپسند و مستهجن، نفرت قومی، تبعیض یا سایر محتواهایی که می‌تواند باعث اختلال در اقتصاد و اجتماعی شود، ممنوع می‌کند.

این مقررات از ارائه دهندگان خدمات هوش مصنوعی می خواهد که برای جلوگیری از تولید اطلاعات نادرست و محتوای مضر اقداماتی را انجام دهند.

اگر محتوای نامناسب تولید شود، ارائه دهندگان خدمات باید فناوری خود را ظرف سه ماه به روز کنند تا از تولید مجدد محتوای مشابه جلوگیری شود. ارائه دهندگانی که از مقررات پیروی نمی کنند ممکن است جریمه شوند، خدمات آنها به حالت تعلیق درآید یا مشمول تحقیقات شوند.

در نهایت، چین قوانین منطقه‌ای نیز در مورد هوش مصنوعی دارد. در 6 سپتامبر 2022،(15شهریور1401) شهر شنژن اولین مقررات هوش مصنوعی در چین را منتشر کرد (مقررات مربوط به ارتقاء صنعت هوش مصنوعی در منطقه ویژه اقتصادی شنژن). شانگهای قانون استانی توسعه هوش مصنوعی را در 22 سپتامبر(31 شهریور) منتشر کرد (مقررات شانگهای برای ترویج توسعه صنعت هوش مصنوعی) که در 1 اکتبر 2022(9مهر) لازم الاجرا شد.

ژاپن

ژاپن دومین بخش بزرگ فناوری اطلاعات کشورهای سازمان همکاری و توسعه اقتصادی است و سرمایه گذاری‌های زیادی در تحقیق و توسعه دارد. اصول اجتماعی شورای ارتقای استراتژی یکپارچه نوآوری در زمینه هوش مصنوعی انسان محور، توسط دولت ژاپن در مارس 2019 (اسفند97-فروردین98) منتشر شد که اصول اساسی جامعه ای با هوش مصنوعی را نشان می دهد.

بخش اول شامل هفت اصل اجتماعی است که جامعه و دولت هنگام برخورد با هوش مصنوعی باید به آنها احترام بگذارند: انسان محوری، آموزش، حفاظت از داده ها، تضمین ایمنی، رقابت منصفانه، انصاف، پاسخگویی و شفافیت و نوآوری.

بخش دوم، دستورالعمل‌های تحقیق و توسعه توسعه‌دهندگان و شرکت‌های هوش مصنوعی را هدف قرار داده است. این با جزئیات بیشتر در قالب دستورالعمل های استفاده از هوش مصنوعی در 9 آگوست 2019 (18مرداد98) توضیح داده شد و در نظر گرفته شد که به عنوان یک درخواست و در عین حال مرجعی برای توسعه دهندگان و شرکت های هوش مصنوعی باشد تا دستورالعمل های خود را تهیه کنند.

علاوه بر این، دستورالعمل‌های حاکمیتی برای اجرای اصول هوش مصنوعی در9 ژوئیه 2021(18تیر1401)، اهداف اقدام و نمونه‌های اجرای فرضی را ارائه می‌کند که باید توسط شرکت‌های هوش مصنوعی در نظر گرفته شوند. وزارت اقتصاد، تجارت و صنعت ژاپن از آن زمان نسخه دوم این دستورالعمل ها را پس از مشورت عمومی منتشر کرده است.

از نظر محتوا، رویکرد هوش مصنوعی ژاپن به رشد فراگیر، توسعه پایدار و رفاه اجتماعی مطابق با اصول هوش مصنوعی کشورهای سازمان همکاری و توسعه اقتصادی است.

کانادا

در 16 ژوئن 2022(26خرداد1401)، دولت فدرال کانادا پیش نویس قانون«C-27»را ارائه کرد که به عنوان قانون اجرای منشور دیجیتال 2022 نیز شناخته می شود. بخش 3 این بسته قانونی شامل قانون هوش مصنوعی و داده ها (AIDA)، اولین قانون هوش مصنوعی کانادا، است.

هدف این قانون تنظیم تجارت بین‌المللی و بین استانی در سیستم‌های هوش مصنوعی با ملزم کردن افراد خاص به اتخاذ تدابیری برای کاهش خطر آسیب و نتایج مغرضانه مرتبط با سیستم‌های هوش مصنوعی است.

این قانون به وزیر اجازه می‌دهد تا دستور افشای سوابق مربوط به سیستم‌های هوش مصنوعی را بدهد. این قانون همچنین اعمال خاصی را در مدیریت داده ها و سیستم های هوش مصنوعی که ممکن است آسیب جدی به افراد یا منافع آنها وارد کند، ممنوع می کند. در حال حاضر این لایحه در حال مطرح شدن در مجلس عوام است و هنوز باید توسط سنا تصویب شود.

هند

در حال حاضر در هند، چارچوب قانونی خاصی برای سیستم های هوش مصنوعی وجود ندارد. با این حال، اندیشکده سیاست های دولت هند، (NITI Aayog) پیشنهادهایی را ارئه کرده است. پیشنهاد اصلی، معرفی یک مرجع نظارتی جهت ایجاد و مدیریت اصولی برای هوش مصنوعی مسئول، ارائه دستورالعمل‌ها و استانداردها، یا به عهده گرفتن هماهنگی مقامات در بخش‌های مختلف هوش مصنوعی است.

ایالات متحده آمریکا

در 4 اکتبر 2022(12مهر1401)، دفتر سیاست علم و فناوری کاخ سفید طرحی را برای توسعه، استفاده و استقرار سیستم‌های خودکار منتشر کرد.

این طرح برخلاف پیش‌نویس قانون هوش مصنوعی اتحادیه اروپا غیرالزام‌آور است و پنج اصل را فهرست می‌کند که هدف آن به حداقل رساندن آسیب‌های احتمالی سیستم‌های هوش مصنوعی است.

در 18 آگوست 2022(27مرداد)، موسسه ملی استاندارد و فناوری (NIST) دومین پیش نویس چارچوب مدیریت ریسک هوش مصنوعی خود را برای اظهار نظر منتشر کرد. نسخه اصلی به مارس 2022(اسفند-فروردین1401) برمی گردد و بر اساس یک مقاله مفهومی از دسامبر 2021 (آذر-دی1400) است.

چارچوب مدیریت ریسک هوش مصنوعی برای کمک به شرکت هایی در نظر گرفته شده است که سیستم های هوش مصنوعی را برای ارزیابی و مدیریت ریسک های مرتبط با این فناوری ها توسعه یا استقرار می دهند. علاوه بر این کنگره آمریکا دو لایحه جدید در مورد هوش مصنوعی را بررسی می‌کند تا در آن‌ها از پیشتازی آمریکا در این زمینه و شفافیت استفاده از آن توسط دولت مطمئن شود.

اتحادیه اروپا

اتحادیه اروپا تا سال 2021، به طور خاص از برنامه های کاربردی هوش مصنوعی پرخطر صحبت می کرد و حدود 300 سازمان با هم متحد شدند تا از ممنوعیت کامل برخی از اشکال هوش مصنوعی دفاع کنند.

این اتحادیه اکنون در حال تنظیم پیش نویس قانون خود در زمینه هوش مصنوعی است و به تازگی جهت سختگیرانه تر شدن تغییراتی را در پیش نویس ایجاد کرده است.

انتظار می رود تا اواخر امسال این پیش نویس به قانون تبدیل شود. قانونگذاران اروپایی و سازمانی تحت حمایت ایلان ماسک که در تهیه پیش نویس قانون هوش مصنوعی اتحادیه اروپا مشارکت دارند، از جمله سازمان هایی هستند که از رهبران جهان خواسته اند تا برای یافتن راه هایی جهت جلوگیری از ایجاد اختلال در هوش مصنوعی پیشرفته همکاری کنند.

همانطور که موارد مطرح شده در بالا نشان می دهد، کشورها در مراحل مختلفی از تکامل رویکرد خود برای تنظیم هوش مصنوعی هستند و دیدگاه های متفاوتی در مورد بهترین روش انجام آن دارند.

از آنجایی که برخی از توسعه‌دهندگان هوش مصنوعی و رهبران کسب‌وکارهای فناوری خواستار توقف شش ماهه توسعه هوش مصنوعی مدل زبانی بزرگ هستند تا اجازه دهد قوانین و مقررات تنظیم شوند، بعید به نظر می رسد که اجماع در مورد بهترین شیوه تنظیم هوش مصنوعی به گونه ای که امکان نوآوری را فراهم و در عین حال استفاده های مضر هوش مصنوعی را محدود کند، حاصل شود.

 

ارسال نظر