10 - 06 - 2023
ضرورت قانونگذاری در هوش مصنوعی
«سم آلتمن»: اگر هوش مصنوعی مسیر اشتباهی را در پیش بگیرد، دردسرآفرین میشود
«جهانصنعت»- بیشک قانونگذاری هوش مصنوعی برای جلوگیری از آسیبهای ناشی از استفاده از آن و کاهش خطرات این فناوری ضروری است. هم قانونگذاران حوزه هوش مصنوعی آمریکا و هم مدیرانعامل شرکتهای فناوری در مورد لزوم وضع قوانین مرتبط با استفاده از هوش مصنوعی برای جلوگیری از آسیبهای ناشی از بهرهمندی از این فناوری، توافقنظر دارند؛ زیرا این فناوری جدید توانایی تغییر اساسی زندگی سیاسی و اجتماعی مردم را دارد؛ اما تاکنون هرچه مطرح شده است، بیشتر شبیه نظرات و پیشنهادها بوده تا چیزی که بتوان به آنها قانون گفت!
پیشرفت دیوانهوار هوش مصنوعی باعث ایجاد هوشیاری عمومی در مورد این فناوری شده است و متخصصان معتقدند قانونگذاری هوش مصنوعی واقعا لازم است. با اینکه این سوال جدی مطرح شده که آیا قانونگذاری برای استفاده از AI دیگر نوشداروی پس از مرگ سهراب است یا هنوز دیر نشده، نهتنها دولتمردان، بلکه افراد فعال در حوزه ایجاد سیستمهای هوش مصنوعی معتقدند که وضع قوانین جدید میتواند با آسیبزنی هوش مصنوعی مقابله کند. وجود قوانین مشخص در حیطه هوش مصنوعی، الگوریتمهای AI را به انسانیت پایبند نگه میدارد و از مسلطشدن این فناوری بر انسان جلوگیری میکند. از زمان پیدایش ChatGPT بسیاری از متخصصان حوزه فناوری معتقدند ایجاد برخی اقدامات حفاظتی برای استفاده از AI میتواند از آسیبهای ناشی از بهرهمندی از تواناییهای این فناوری جلوگیری کند و خطرات استفاده از آن را به حداقل برساند. تاکیدیترین موارد تقاضاهای اینچنینی از سوی «سم آلتمن»، مدیرعامل OpenAI شرکت طراح و سازنده (ChatGPT) و یکی از تاثیرگذارترین چهرههای کنونی حوزه هوش مصنوعی، مطرح شده است. «آلتمن» اذعان کرده است که اگر هوش مصنوعی مسیر اشتباهی را در پیش بگیرد، واقعا دردسرآفرین میشود و ما میخواهیم برای جلوگیری از این اتفاق با دولت همکاری کنیم.
قطعا دولت آمریکا که مدتی پیش لزوم قوانین برای استفاده از AI را بسیار با اهمیت میدانست نیز از چنین تصمیماتی استقبال خواهد کرد. «آلتمن» چند روز قبل از اینکه نگرانی خود در مورد هوش مصنوعی را ابراز کند، در جلسهای در کاخ سفید با حضور رهبران حوزه فناوری برای شنیدن هشدار «کامالا هریس» معاون رییسجمهور در مورد خطرات این فناوری و اهمیت بسیار زیاد لزوم ایجاد راهحلهایی برای مقابله با این خطرات شرکت کرده بود. انتخاب و پیادهسازی چنین راهحلهایی آسان نخواهد بود. دستیابی به توازن بین ایجاد روشهای مبتکرانه برای بهرهمندی از AI و محافظت از شهروندان و حقوق آنها در برابر این فناوری، چالش بسیار سختی است؛ همچنین این موضوع را هم باید در نظر بگیریم که ایجاد محدودیتهای مختلف برای یک فناوری نوظهور، مخصوصا فناوری جدیدی که در ابتدا سروصدای زیادی به پا میکند، باعث سختشدن پیشرفت آن میشود. علاوه بر این، حتی اگر کشورهایی مانند آمریکا، کشورهای عضو اتحادیه اروپا و هند چنین محدودیتهایی را بپذیرند، آیا کشوری مثل چین نیز به آنها احترام خواهد گذاشت؟
جالب است بدانید در سال ۲۰۱۹،OpenAI که در آن زمان کمتر کسی آن را میشناخت، اعلام کرد مدل زبانی بزرگ این شرکت با نام GPT-2 با قابلیت تولید متن، به دلیل نگرانیهای مرتبط با استفاده مخرب از این فناوری، برای عموم مردم منتشر نخواهد شد. شرکت دلایل دیگری نیز برای عدم انتشار
۲- GPT برای عموم کاربران مطرح کرد که شامل احتمال ارائه مقاله منحرفکننده به کاربران از سوی این ابزار AI و همچنین احتمال جعل هویت آنلاین افراد و خودکارسازی فرآیند تولید محتوای ساختگی یا توهینآمیز شبکههای اجتماعی یا تولید محتوای فیشینگ میشود. به همین دلیل OpenAI پیشنهاد داد که دولتها باید با بهرهمندی از روشهای مبتکرانه، نظارت نظاممند بر تاثیرات اجتماعی و ترکیب فناوریهای AI با یکدیگر را گسترش دهند یا این کار را شروع کنند و بر روند پیشرفت تواناییهای سیستمهای هوش مصنوعی نیز نظارت داشته باشند.
تلاش کاخ سفید برای قانونگذاری در حیطه هوش مصنوعی
اکنون که چهار سال از این هشدار OpenAI میگذرد، کاخ سفید بهطور غیرمعمولی برای ارائه تصویری از ساختار احتمالی قوانین حوزه AI تلاش میکند. مدیریت این نهاد دولتی آمریکا در اکتبر ۲۰۲۲، درست یک ماه قبل از انتشار جنجالی ChatGPT، مقالهای با عنوان طرحی برای منشور حقوق هوش مصنوعی منتشر کرد. این مقاله نتیجه یک سال آمادهسازی قوانین، نظرات عمومی و نظرات متخصصان صاحب قدرت بود. برخی مخاطبان این مقاله بهاشتباه تصور کردند طرح ارائهشده در این مقاله، قانون و لازمالاجراست؛ البته در این مقاله صراحتا به محدودیتهای منشور معرفیشده اشاره شده و در آن گفته شده است که منشور حقوق هوش مصنوعی تابع قوانین نیست و سیاستهای دولت آمریکا را دنبال نمیکند.
همچنین برای مقابله با تعصبات نیز باید قوانینی وضع شود. وضع قوانین ضدانحصار برای مقابله با غولهای فناوری جهت جلوگیری از دسیسهچینی آنها با کمک هوش مصنوعی با هدف ترکیب و یکپارچهسازی حجم زیادی از اطلاعات کاربران و کسب درآمد از این اطلاعات نیز لازم است. حفاظت از اطلاعات شخصی مورد استفاده در ابزارهای هوش مصنوعی نیز ضرورت دارد. در مقاله مذکور به دشوار بودن تبدیل نظرات و پیشنهادها به قوانین الزامی نیز اشاره شده است. اگر بهدقت به مفاد منشور هوش مصنوعی کاخ سفید نگاه کنیم، کاملا متوجه میشویم که بالاترین نهاد دولتی آمریکا قصد دارد این قوانین را نهتنها برای هوش مصنوعی، بلکه برای تمام حیطههای فناوری اعمال کند. هرکدام از این موارد را میتوان یکی از حقوق کاربران تلقی کرد که نقض شده است.
تلاش کنگره آمریکا برای قانونگذاری در حیطه هوش مصنوعی
علاوه بر کاخ سفید، کمیته زیرمجموعه قضایی سنا درخصوص حریم خصوصی، فناوری و قانون، قانونگذاری در حوزه AI را ضروری اعلام کرده است. مجلس سنا در راستای قانونگذاری هوش مصنوعی، به سخنان «سم آلتمن»، «کریستینا مونتگومری»، افسر ارشد حفظ حریم خصوصی و اعتماد در I.B.M و «گری مارکوس»، استاد بازنشسته در دانشگاه نیویورک و کارآفرین در حوزه AI، سه متخصص بزرگ این حیطه فناوری، گوش داده است. (لازم به ذکر است کاخ سفید هم از شرکتهای بزرگ فناوری، سهامداران حوزه هوش مصنوعی و عموم مردم خواسته به ۲۹ سوال در مورد مزایا و خطرات استفاده از این فناوری پاسخ دهند.) البته در میان این سه نفر، «سم آلتمن» بیشترین توجهها را به خود جلب کرده است؛ زیرا به هر حال شرکت تحت سرپرستی او توانسته یکی از موفقترین و محبوبترین محصولات هوش مصنوعی را عرضه کند. وی در سخنرانیاش در مقابل سناتورها گفته است که OpenAI قانونگذاری در زمینه هوش مصنوعی را ضروری میداند. او اشتیاق خود برای این کار را نشان داده و به گفته خودش، شهادتنامهای را جهت کمک به سیاستگذاران به منظور مشخصکردن نحوه تسهیل قانونگذاری، به نحوی که بین امنیت فناوری هوش مصنوعی و بهرهمندی از مزایای آن توازن برقرار شود، آماده کرده است.
سناتور «دیک دوربین» این اتفاق را تاریخی خوانده؛ زیرا به گفته خودش، به یاد نمیآورد مدیران اجرایی شرکتهای فناوری نزد قانونگذاران حاضر شده و از آنها خواسته باشند برای محصولاتی که ایجاد کردهاند، قوانین بیشتری وضع کنند! «آلتمن» نخستین فردی بود که به عنوان مدیرعامل یک شرکت فناوری در اتاق استماع کنگره حضور یافت و از قانونگذاران چنین درخواستی کرد. قابلتوجهترین اتفاق مشابه این اتفاق، به درز اطلاعات ۸۷ میلیون کاربر فیسبوک در سال ۲۰۱۸ مربوط میشود. در آن زمان «مارک زاکربرگ»، مدیرعامل فیسبوک سابق، اطلاعات شخصی کاربران شبکه اجتماعی خود را بدون اطلاع آنها در اختیار یک شرکت مشاوره سیاسی قرارداد که با کمپین سیاسی «ترامپ» مشارکت داشت. وی پس از این اتفاق در مجلس سنا احضار شد و در مقابل برخی سناتورها اذعان کرد که تمایل دارد تحت نظارت دولت قرار بگیرد! حتی در نوشتهای در واشنگتنپست گفت که به اعتقاد او، برای دولت و قانونگذاران قوانین بیشتری نیاز است. «آلتمن» هم مانند «زاکربرگ» تقاضای خود برای وضع قوانین بیشتر برای استفاده از محصولات شرکت خود را با توضیح در مورد اقدامات محافظتی بهکارگرفتهشده توسط شرکت شروع کرد؛ مثلا به ChatGPT آموزش داده شده که برخی درخواستهای خاص ضداجتماعی را رد کند؛ فردی از این مدل هوش مصنوعی درخواست کرد کد چاپ سهبعدی گلوک (اسلحهای شبیه به کلت) را بنویسد؛ مدل این درخواست را انجام داد؛ اما بهجای گلوک، تیرکمان سنگی را بهصورت سهبعدی چاپ کرد و قبل از انجام این کار تاکید کرد که ساخت چنین وسیلهای و استفاده از آن باید با مسوولیت و بهصورت قانونی انجام شود. در سیاستهای استفاده از محصولات هوش مصنوعی OpenAI ممنوعیتهای دیگری نیز ذکر شده است که شامل ممنوع بودن استفاده از این محصولات برای ایجاد بدافزارها، ایجاد تصاویر مرتبط با سوءاستفاده جنسی از کودکان، دزدی ادبی و تولید محتوا برای کمپینهای سیاسی میشود. البته هنوز مشخص نیست شرکت چگونه میخواهد چنین ممنوعیتهایی را اعمال کند.
مجلس با بیانیهای به شرح زیر، این موضوع را پذیرفته است که OpenAI بهجای تلاش برای جلوگیری از قانونشکنی، تنها پس از نقض قانون اقدام خواهد کرد: «اگر برای ما محرز شد که در طراحی و ایجاد محصولات شما و نحوه استفاده از آن سیاستهای مذکور دنبال نمیشود، از شما میخواهیم تغییرات لازم را اعمال کنید.»
«ریچارد بلومنتال» سرپرست کمیته قضایی زیرمجموعه قضایی در بیانیه آغازین جلسه گوش دادن به سخنان «سم آلتمن»، «کریستینا مونتگومری» و «گری مارکوس»، با جدیت اذعان کرد که شرکتهای فعال در هوش مجموعه باید ملزم به آزمایش سیستمهای خود، بیان صریح خطرات احتمالی استفاده از آنها و امکانپذیرکردن دسترسی پژوهشگران مستقل به این سیستمها شوند. چنانچه فعالیتهای شرکتهای هوش مصنوعی و مشتریان آنها منجر به ایجاد آسیب شود، شرکتها و افراد باید مسوولیت انجام چنین کارهایی را بپذیرند. «بلومنتال» برای اینکه منظورش در مورد آسیب را بهتر بفهماند، به صدای ضبطشده خود در مورد لزوم قانونگذاری اشاره کرد و گفت: حرفهایی در این صدای ضبطشده بیان شده که او اصلا به زبان نیاورده است! یعنی هم بیانیه و هم صدای این سناتور با هوش مصنوعی دستکاری شده است. این اظهارات حداقل برای سیاستمداران حاضر در جلسه نگرانکننده و دلهرهآور بود.
دستیابی به راهحلی برای ارزیابی آسیبها یا تعیین چگونگی مسوولیتپذیری، درست بهاندازه یافتن راهحلی برای تعیین قانون برای فناوری جدیدی که رشد سریعی دارد و هر مانعی در سر راه خود را بیرحمانه از بین میبرد، دشوار است. «آلتمن» در شهادتنامه خود پیشنهاد داده کنگره نهادی دولتی ایجاد کند که مسوول صدور گواهینامه برای مدلهای هوش مصنوعی «قوی»
(به گفته او) باشد. (البته هنوز مشخص نیست واژه «قوی» در عمل چگونه تعریف میشود.) چنین پیشنهادی ایده بدی بهنظر نمیرسد، اما ممکن است به ایدهای تبدیل شود که تنها منافع شخصی را تامین کند.
«کلم دنال» مدیرعامل «هاگینک فیس» در توئیتی گفته است لزوم داشتن گواهینامه برای آموزش مدلهای هوش مصنوعی، بیشتر باعث تمرکز قدرت در دست چند شرکت معدود میشود. چنانچه برخورداری از گواهینامه برای آموزش مدلهای AI ضروری شود، شرکتهایی مثل OpenAI که توانستهاند مدل زبانی بزرگ خود را بدون نظارت دولتی یا سایر موانع قانونی طراحی و ایجاد کنند، میتوانند به راحتی رقبای خود را پشت سر بگذارند و جایگاه خود را تثبیت کنند؛ چنین فضایی ورود تازهواردان به حوزه AI را دشوار میکند. این شرایط نهتنها باعث ایجاد مزیت اقتصادی برای غولهای حوزه هوش مصنوعی مثل OpenAI و مایکروسافت
(که از جدیدترین مدل هوش مصنوعی OpenAI، یعنی ۴-GPTدر برخی از محصولات خود از جمله موتور جستوجوی بینگ استفاده کرده است) میشود، بلکه مختلشدن جریان آزاد اطلاعات و ایدهها را نیز به دنبال دارد.
«مارکوس» استاد دانشگاه و کارآفرین در حوزه AI در مورد خطر جدی ترکیب نوعی فنسالاری (قدرتگرفتن متخصصان در جامعه) و ثروتسالاری (قدرتگرفتن تعداد معدودی از ثروتمندان) که باعث میشود باورهای مردم با اطلاعاتی که مشخص نیست چه هستند، تحت تاثیر شرکتهای معدود قرار گیرد، به سناتورها هشدار داده است. او به این موضوع هم اشاره کرده که OpenAI و سایر غولهای بزرگ در حوزه هوش مصنوعی هنوز هیچ اطلاعاتی در مورد دادههای مورد استفاده برای آموزش مدلهای خود ارائه نکردهاند. این مخفیکاری تشخیص تعصبات پنهانی این شرکتها و همچنین ارزیابی درست امنیت آنها را غیرممکن میکند. به نظر سناتور «جاش هالی»، محتملترین خطر استفاده از مدلهای زبانی بزرگ مثل ChatGPT، توانایی آنها برای دستکاری رایهاست. «آلتمن» به این سناتور گفته این موضوع یکی از بزرگترین نگرانیهای اوست. «آلتمن» در مورد این موضوع چنین گفته است: «بهطور کلی این مدلها توانایی دستکاری، قانعکردن و ارائه اطلاعات تعاملی نادرست را دارد. با توجه به انتخابات ریاستجمهوری سال آینده آمریکا و پیشرفت این مدلها تا آن زمان، استفاده از آنها واقعا نگرانکننده است.»
بهترین راه برای رفع نگرانیها این است که OpenAI به عنوان یک شرکت پیشتاز در حوزه هوش مصنوعی، مدلهای زبانی بزرگ خود را از دسترس عموم خارج کند و آنها را تنها زمانی دوباره در اختیار مردم قرار دهد که دیگر قادر به دستکاری رایها نباشند یا با روشهای دیگری به فرآیند دموکراسی آسیب نزنند. در صورت رخ دادن یک اتفاق، واقعا شاهد اتفاقی تاریخی در حوزه AI خواهیم بود، اما متاسفانه در جلسه رهبران شاخص حیطه هوش مصنوعی با سناتورها، چنین پیشنهادی مطرح نشد.
محوریت بحث این جلسه به این موضوع مربوط میشد که اگر نهادی دولتی برای قانونگذاری در حوزه AI تاسیس شود، چه نوع نهادی خواهد بود و چه کسی باید مسوولیت آن را برعهده بگیرد و اینکه آیا بینالمللیکردن چنین نهادی امکانپذیر است یا خیر. این جلسه در حقیقت تمرینی برای قانونگذاری در حوزه AI در آینده بود که در آن به خطرات کنونی استفاده از این فناوری اشاره نشد.
لطفاً براي ارسال دیدگاه، ابتدا وارد حساب كاربري خود بشويد