اگرچه ما بهطورکلی عصر دادههای بزرگ و هوش مصنوعی را با انقلاب ماشینهای بخار مقایسه میکنیم، ولی از طرفی کشفیات جغرافیایی نیز میتوانند معیاری متفاوت در این زمینه ارائه دهند.
این کشفیات، درحالیکه بشر را به سمت ایجاد ساختارهای تجاری، اقتصادی و سیاسی جدید سوق دادند، اما نتوانستند فرصتهای برابر برای همه ایجاد کنند.
در شرایطی که تمدنهایی پیش از سال ۱۴۹۳ در آمریکا زندگی میکردند؛ ولی در نگارش تاریخ نیز در اصطلاح «کشف آمریکا» اتفاقنظر وجود ندارد.
این درک یکجانبه از تاریخ به همدلی بیشتری نیاز دارد و رویکردی ناکافی و خطرناک برای آموزش کودکان است.
امروزه برای اینکه سیستمهای هوش مصنوعی به انسانها در کشف اسرار کیهان، بهبود کشاورزی برای اطمینان از دسترسی همه به غذا و توسعه خدمات بهداشتی پیشگیرانه کمک کنند، ما باید دستیابی به توسعه فناوری منصفانه را بهخاطر هرآنچه که پیشازاین نتوانستهایم به آن تحقق بخشیم را در اولویت قرار دهیم.
برای این کار، ما به یک ساختار قانونی با اصول اخلاقی پنهان در آن نیاز داریم.
به همین دلیل، ضروری است که توسعه و استفاده از سیستمهای هوش مصنوعی که بسیار جامعتر و عملیتر از سایر فناوریها هستند، توسط قانون تنظیم شود.
به همین منظور، در دسامبر ۲۰۲۳ یک توافق موقت در اتحادیه اروپا قانونگذاری جامعی در زمینه توسعه و استفاده از هوش مصنوعی در جهان شکل گرفت.
اما بیایید داستان سفر قانونگذاری هوش مصنوعی را از ابتدا مرور کنیم.
تا پایان دهه ۲۰۱۰، قانونگذاران، متخصصان و دانشگاهیان فعال در زمینه حقوق، مهندسان و دانشمندان اجتماعی که در حوزه هوش مصنوعی مشغول به کار بودند، یک سؤال مشترک داشتند: چه باید کرد؟
پاسخهای این سؤال به چارچوبهای اخلاقی هوش مصنوعی تبدیل شد که اکثر آنها در اواخر دهه ۲۰۱۰ توسط بسیاری از مؤسسات در سراسر جهان منتشر شدند.
برخی از این چارچوبهای اخلاقی در مورد هوش مصنوعی مانند دستورالعملهای اخلاقی برای هوش مصنوعی موردنظر و قابلاعتماد اتحادیه اروپا ۲۰۱۹، مبنای قوانین آینده قرار گرفتند.
در همان دهه، استراتژیهای ملی هوش مصنوعی، از جمله تحلیل SWOT نیز توسط بسیاری از کشورها در سراسر جهان منتشر شد.
یکی از جامعترین این استراتژیها، گزارش اولین استراتژی ملی هوش مصنوعی ترکیه بود که در سال ۲۰۲۱ توسط وزارت صنعت و فناوری و دفتر تحول دیجیتال نهاد ریاستجمهوری ترکیه منتشر شد که دستورالعملهای آن از نقشه راه دیجیتال کشور حمایت میکرد.
سال ۲۰۲۱ همچنین برای تعیین سیاستهای استراتژیک هوش مصنوعی در اتحادیه اروپا اهمیت زیادی داشت، زیرا گروه ۲۷ عضوی این اتحادیه تصمیم به تشکیل یک چارچوب قانونی مشترک گرفت.
بر اساس دستورالعملهای اخلاقی هوش مصنوعی ۲۰۱۹، کمیسیون اروپا در سال ۲۰۲۱ پیشنهادی برای قانونگذاری در مورد سیستمهای هوش مصنوعی ارائه داد که تقریباً به شکل نهایی خود رسیده است.
انتظار میرود که این قانون پیش از پایان سال ۲۰۲۴ در روزنامه رسمی اتحادیه اروپا منتشر شود.
راههای پر پیچوخم و دشوار
با این حال، این مسیر سخت و گاهی پر از موانع بوده است.
در نوامبر 2023، بلافاصله پس از برگزاری اجلاس ایمنی هوش مصنوعی توسط بریتانیا و دستورالعمل اجرایی ایالات متحده در مورد هوش مصنوعی، سه کشور بزرگ اتحادیه اروپا یعنی فرانسه، آلمان و ایتالیا، یک متن غیررسمی صادر کردند که هدف آن حفظ رویکرد بیطرف و مبتنی بر ریسک در امر قانونگذاری هوش مصنوعی اتحادیه اروپا بود. این کشورها بیان کردند که ریسکهای مرتبط با سیستمهای یادگیری این موتورهای فناوری مربوط به پیادهسازی آنها است، نه خود فناوری.
استدلال آنها این بود که باید به جای مقررات قانونی، کدهای رفتاری برای مدلهای پایهای هوش مصنوعی مولد اجرا شوند که این امر باعث پیجیدهتر شدن فرآیند کار بر روی قانون هوش مصنوعی اتحادیه اروپا شد.
خوشبختانه، سالها تلاش در این مورد نتیجه داد و در نهایت یک متن مورد تفاهم تمامی طرفها تحت عنوان قانون هوش مصنوعی اتحادیه اروپا به دست آمد. همچنین اخیراً یک هیئت هوش مصنوعی برای تضمین اجرای صحیح و مؤثر این قانون، تأسیس شد.
همانطور که در اولین ماده از متن مورد تفاهم قانون هوش مصنوعی تأکید شده است، این قانون در نظر دارد تا سطح بالایی از حفاظت از سلامت، ایمنی، حقوق بنیادین، دموکراسی، حاکمیت قانون و حفاظت از محیطزیست را تضمین کند. دامنه قانونی هوش مصنوعی همانند مقررات عمومی حفاظت از دادهها (GDPR) فرامرزی است.
اگر قرار باشد این سیستمها به بازار اتحادیه اروپا وارد شوند یا در خدمت اتحادیه اروپا قرار گیرند، چه در داخل قلمرو اتحادیه اروپا تأسیس شده باشد و چه بیرون آن، قانون هوش مصنوعی برای ارائهدهندگان سیستمهای هوش مصنوعی ملزم به اجرا است.
بنابراین، اگر یک شرکت ترکیهای یا آمریکایی بخواهد محصول خود را بفروشد یا آن را وارد چرخه خدمترسانی کند، باید از مواد قانونی هوش مصنوعی پیروی کند.
به دلیل اینکه هدف از قانون هوش مصنوعی، ایجاد یک چارچوب مقاوم در برابر آینده در مواجهه با فناوریهایی است که به طور مداوم در حال توسعه هستند؛ در متن قانون هوش مصنوعی اتحادیه اروپا، رویکرد بیطرفانه نسبت به فناوری در اولویت قرار گرفته است.
به این ترتیب، سیستمهای هوش مصنوعی که در چارچوب فناوریهای نسبتاً جدیدی مانند واقعیت افزوده (AR) و رابطهای مغز-ماشین (فناوریای که شرکت Neuralink متعلق به ایلان ماسک به آن وابسته است) استفاده خواهند شد، به زودی با فناوریهای ارتباطات بیسیم نسل جدید وارد زندگی ما خواهند شد و میتوانند در چارچوب این قانون مورد ارزیابی قرار گیرند.
رویکرد مبتنی بر ریسک
علاوه بر این، قانون هوش مصنوعی اتحادیه اروپا یک رویکرد مبتنی بر ریسک دارد. در اینجا، ریسک به معنای خطرات برای سلامت، ایمنی و حقوق بنیادین است. این رویکرد به یک طرح قانونی اشاره دارد که به طور مستقیم متناسب با خطراتی است که سیستمهای هوش مصنوعی ممکن است به همراه داشته باشند.
بر اساس رویکرد مبتنی بر ریسک، ارائه سیستمهای هوش مصنوعی که خطرات خطرات غیرقابل قبولی ایجاد میکنند، مثل سیستمهای شناسایی احساسات شخصی که در محیطهای کاری یا مؤسسات آموزشی استفاده میشوند، ممنوع هستند.
بنابراین، طبق قانون هوش مصنوعی اتحادیه اروپا، استفاده از سیستمهای هوش مصنوعی برای ارزیابی وضعیت روحی کارگران، خواه غمگین باشند خواه شاد، یا ارزیابی توجه یا وضعیت روحی دانشآموزان، ممنوع خواهد بود. هر ارائهدهنده برنامه فناوری آموزشی مبتنی بر هوش مصنوعی باید هنگام ورود به بازار اتحادیه اروپا این نکته را در نظر بگیرد.
از سوی دیگر، اگر یک سیستم هوش مصنوعی طبق تعریف اتحادیه اروپا خطر بالایی ایجاد کند، ارائهدهندگان این سیستمها موظف هستند تا شرایط حسابرسی و سایر شرایط مشخص شده در قانون را برآورده کنند.
طبق قانون هوش مصنوعی، ابزارهای غربالگری کاندیداهای شغلی در زمان استخدام به عنوان یک سیستم هوش مصنوعی با ریسک بالا در نظر گرفته میشوند. از زمانی که این ابزارها برای آگهیهای شغلی یا مصاحبههای شغلی استفاده شدند، مسائل قانونی مختلفی در مواردی مانند تعصب و تبعیض به وجود آمده است.
بنابراین، مانند هر ارائهدهنده سیستم هوش مصنوعی با ریسک بالا، ارائهدهندگان فناوریهای منابع انسانی باید تطابق با قوانین و ارزشهای آن عمل کنند.
با این حال، باید الزامات سنگینتری توسط ارائهدهندگان مدلهای هوش مصنوعی عمومی مانند ChatGPT شرکت OpenAI رعایت شود. طبق متن تفاهمنامه قانون هوش مصنوعی، آزمایش یک سیستم هوش مصنوعی در دنیای واقعی تنها در صورتی ممنوع نخواهد بود که تدابیر ایمنی لازم در آنها اعمال شوند.
با این حال، بهمنظور حمایت از نوآوری، سیستمها و مدلهای هوش مصنوعی که به طور خاص برای اهداف تحقیقاتی و توسعه علمی طراحی شده و وارد خدمت میشوند، از دامنه قانون هوش مصنوعی مستثنا هستند.
تا پیش از انتشار ChatGPT در سال 2022 توسط OpenAI، برخی استدلال میکردند که اصول اخلاقی و یا شیوهنامههای رفتاری برای پیشگیری از خطرات سیستمهای هوش مصنوعی کافی هستند.
یک باور عمومی و رایج در در ایالات متحده وجود دارد که هر گونه تلاش برای قانونگذاری، باعث اختلال در مسیر نوآوری مختل خواهد شد؛ به همین دلیل ایالات متحده زمان زیادی را برای هرگونه تلاش قانونی صرف کرد.
از دوران ریاستجمهوری اوباما، نقشهراههای مرتبط با هوش مصنوعی طراحی شد. با این حال، رویکرد حداقل قانونگذاری و حداکثر نوآوری کافی نبود، زیرا مدلهای همهگیر مانند هوش مصنوعی خطرات زیادی دارند که تنها با چارچوبهای اخلاقی نمیتوان آنها را حل کرد.
بنابراین، یک دستور اجرایی ریاستجمهوری ایالات متحده در مورد هوش مصنوعی پیش از برگزاری اجلاس ایمنی هوش مصنوعی بریتانیا در نوامبر 2023 در لندن منتشر شد.
در این شرایط، با نگاه به وضعیت ایالات متحده، میتوان پیشبینی کرد که قانونگذاری دیگر یک احتمال دور نبود. پیشرفتهای سریع و اثرات احتمالی مدل ChatGPT که در سال 2022 به عموم معرفی شد، شروع به انتشار در ایالات متحده کرد.
ریسکهای حریم خصوصی و امنیتی مدلهای هوش مصنوعی مولد، بسیار بالاتر از فناوریهای قبلی هستند، بنابراین کاهش این خطرات تنها با تدابیر تکنولوژیکی و وضع قوانین مؤثر امکانپذیر است.
بر اساس این موضوع، اعمال قانون در مورد هوش مصنوعی وارد دستور کار ایالات متحده شد. در تاریخ 30 اکتبر، گمانهزنیها در مورد جامعترین چارچوب قوانین هوش مصنوعی ایالات متحده در قالب این دستور اجرایی شروع شد.
این دستور خواستار شفافیت بیشتر از شرکتهای هوش مصنوعی در مورد نحوه عملکرد مدلهای توسعه دهنده هوش مصنوعی بود. بر همین اساس، چندین استاندارد جدید مانند برچسبگذاری محتواهای تولید شده توسط هوش مصنوعی، ایجاد خواهد شد.
طبق گفته کاخ سفید، هدف از این دستور، افزایش ایمنی و امنیت هوش مصنوعی است. با این حال، در مورد اثربخشی این دستور شک و تردیدهایی وجود دارد زیرا آن را «بیش از حد نرم» میدانند و ماهیت الزامآور آن نیز مورد بحث است.
به طور خاص، متن دستورالعمل شامل رعایت برخی الزامات قانونی است که اگر آزمایشهای امنیتی نشان دهند این فناوری ممکن است تهدیدی برای امنیت ملی باشد، نتایج آزمایشهای امنیتی مدلهای جدید هوش مصنوعی را با دولت ایالات متحده به اشتراک بگذارند.
سال 2024 قرار است نقطه عطفی در تلاشها برای تبدیل دستورالعملهای حاضر به قوانین واقعی جهت توسعه و استقرار هوش مصنوعی، باشد و به همراه قوانین تصویب شده تحت استراتژیهای دادهای به اجرا در خواهند آمد.
از آنجا که دادهها و کنترل دادهها انقلاب هوش مصنوعی را تعریف میکنند، قوانین حاکمیت داده، حفاظت از دادهها و چارچوبهای قانونی برای فضاهای داده باز، به همراه قوانین خاص این فناوری، بدنه اصلی قانون هوش مصنوعی خواهند بود.
برای یک آینده روشن، پیدا کردن فرمولی برای چارچوب قانونی هوش مصنوعی که در آن همه از این فناوریها بهرهمند شوند، اهمیت زیادی دارد.
در کتاب خود هابیت، جی. آر. آر. تالکین گفته است که مسائل بیدردسر یک داستان کامل و واقعی نمیسازند؛ تمام داستانها در زمانهای پیچیده و پرچالش ارزش گفتن دارند.
امروزه، همانطور که در بعضی از موارد اتفاق افتاده است، ما در زمانی چالشبرانگیز و نامطمئن قرار داریم. همچنین، به جای اینکه تنها خوشبین باشیم، بیشتر دستیافتنی و معنادار است که رویکردی قطعی داشته باشیم.
و این نقل قول از تالکین نیروی محرک و راهگشا برای ما خواهد بود: همه ما سعی داشته باشیم در قرن بیست و یکم، داستانهای جدیدی در زندگی خود خلق کنیم.