20 - 05 - 2024
تضمین ایمنی و سازگاری جهانی
«سم آلتمن»: ایمنسازی تمامی فرآیندها ادامه خواهد داشت تا برای ریسکهای گوناگون آماده باشیم
گروه فناوری- در سالهای اخیر، پیشرفتهای چشمگیر در حوزه هوش مصنوعی، نگرانیهای متعددی را درخصوص ایمنی و تاثیرات بلندمدت این فناوری بر انسان و جامعه به وجود آورده است. یکی از شرکتهای پیشرو در این حوزه، OpenAI است که با توسعه مدلهای هوش مصنوعی قدرتمندی همچون«GPT-3» و «GPT-4»، نقش مهمی در این پیشرفتها ایفا کرده است. بنیانگذاران OpenAI، به منظور پاسخگویی به این نگرانیها و شفافسازی درخصوص ایمنی مدلهای هوش مصنوعی، مصاحبههایی انجام دادهاند و مقالاتی منتشر کردهاند. آنها تاکید دارند که این شرکت از همان ابتدا به مساله ایمنی هوش مصنوعی توجه ویژهای داشته و در تلاش است تا این فناوری را به گونهای توسعه دهد که منافع بیشتری برای جامعه به همراه داشته باشد. به گفته آنها، تدابیر متعددی برای کاهش خطرات احتمالی این فناوری اتخاذ شده است. این تدابیر شامل نظارت دقیق بر نحوه آموزش مدلها، ارزیابی مستمر از عملکرد آنها و همکاری با سایر نهادها و محققان در جهت تدوین استانداردهای ایمنی است.
با وجود این تلاشها، نگرانیها در میان برخی از دانشمندان همچنان باقی است. در واقع، چندین تن از محققان برجسته در حوزه هوش مصنوعی، به دلیل نگرانی از خطرات بالقوه این فناوری، از سمتهای خود استعفا دادهاند. این دانشمندان بر این باورند که توسعه بیرویه و بدون کنترل هوش مصنوعی میتواند پیامدهای ناگواری داشته باشد که شامل تهدیدهای امنیتی، از دست رفتن کنترل بر مدلهای پیشرفته و تاثیرات منفی بر بازار کار و جامعه است. در چند روز گذشته ابتدا «ایلیا سوتسکیور»، دانشمند ارشد سابق OpenAI از این شرکت جدا شد و بعد «یان لیکه» مدیر تیم ایمنی هوش مصنوعی از خروج خود از OpenAI خبر داد و مدعی شد که این شرکت اکنون توجه بیشتری به عرضه محصولات پرزرقوبرق دارد. حالا «گرگ براکمن» و «سم آلتمن» به این اتفاقات و صحبتها واکنش نشان دادهاند.
گرگ براکمن همبنیانگذار OpenAI در پستی در صفحه شخصی خود در ایکس بیانیهای را منتشر کرد که به صورت مشترک توسط سم آلتمن نوشته شده است. این بیانیه ضمن تشکر از تلاشهای «یان لیکه» برای این شرکت، به سه نکته برای رفع ابهامات اشاره میکند. در ابتدا میگوید OpenAI سطح آگاهی عمومی درباره ریسکها و فرصتهای هوش جامع مصنوعی (AGI) را ارتقا داده است تا جهان برای مواجهه با آن آمادهتر باشد. آلتمن و براکمن همچنین یادآور شدند که این شرکت تاکنون بارها خواستار قانونگذاری و کنترلهای بینالمللی برای AGI بوده است. این بیانیه در ادامه میگوید OpenAI زیرساختهای لازم برای توسعه سیستمهای تواناتر را پیادهسازی کرده ولی اذعان میکند که پی بردن به چگونگی ایمنسازی فناوریهای جدید کار آسانی نیست. بنیانگذاران OpenAI میگویند که برای مثال، آنها تلاش زیادی کردهاند تا مدل هوش مصنوعی «GPT-4» را به شکلی ایمن منتشر کنند و به تلاش برای بهبود شرایط و جلوگیری از سوءاستفادهها ادامه دادهاند.سومین نکتهای که براکمن و آلتمن به آن اشاره کردهاند، این واقعیت است که آینده از گذشته سختتر خواهد بود. آنها میگویند OpenAI باید ایمنی سیستمهای خود را با هر مدل جدید ارتقا دهد. این دو پیشبینی میکنند که در آینده مدلهای هوش مصنوعی بیشتر از قبل با دنیای واقعی درهمآمیخته شوند و کارهای مختلف را برای کاربران انجام دهند. به همین منظور لازم است که کارهای زیربنایی بسیار زیادی برای حفظ ایمنی آنها صورت بگیرد و این اقدامات باید در زمینه شیوههای یادگیری، حل مساله و دیگر مسائل مرتبط با ایمنی باشد. گرگ براکمن و سم آلتمن تاکید کردند که این شرکت نمیتواند پیشبینی دقیقی از آینده داشته باشد، بنابراین به ایمنسازی تمامی فرآیندهای خود ادامه خواهد داد تا برای ریسکهای گوناگون آماده باشد. این بیانیه یادآور میشود که راه مشخصی برای حرکت به سمت AGI وجود ندارد، اما باید به طور همزمان به سمت ارائه قابلیتهای مفید و در عین حال حفظ ایمنی حرکت کرد و این شرکت مسوولیتهای خود را جدی میگیرد.
ابزار نگرانی پدرخوانده هوش مصنوعی
«جفری هینتون» دانشمند علوم کامپیوتر که به دلیل کار خود در زمینه شبکههای عصبی مصنوعی به «پدرخوانده هوش مصنوعی» معروف است در مصاحبه جدیدی گفت که نگران تصاحب کارهای پیشپاافتاده و خستهکننده توسط هوش مصنوعی است.
هینتون به دولت بریتانیا پیشنهاد کرده که برای کاهش تاثیر این اتفاق، درآمد پایه همگانی ایجاد کند. پدرخوانده هوش مصنوعی به بیبیسی میگوید که «بسیار نگران این موضوع است که هوش مصنوعی بسیاری از مشاغل عادی را تصاحب کند». او معتقد است که درآمد پایه همگانی میتواند راهحلی برای مقابله با این مساله باشد. او در مصاحبه خود گفت: «در خیابان داونینگ [محل استقرار دفتر نخستوزیر انگلیس] با من مشورت کردهاند. من به آنها توصیه کردم که درآمد پایه همگانی ایده خوبی است.» درآمد پایه همگانی مبلغی است که به تمام بزرگسالان در یک جمعیت خاص بدون توجه به ثروت و وضعیت شغلی آنها پرداخت میشود. این ایده به عنوان راهی برای کاهش تاثیر اقتصادی هوش مصنوعی، در میان محققان، آیندهپژوهان و رهبران صنعت به موضوع جذابی تبدیل شده است، همچنین در کشورهایی مانند آفریقای جنوبی، کنیا و هند، این ایده به عنوان راهی برای مقابله با فقر مورد توجه قرار گرفته است.
از نظر هینتون، هوش مصنوعی بهرهوری را افزایش میدهد و ثروت بیشتری را به همراه خواهد داشت اما اگر دولت مداخله نکند، این فناوری فقط ثروتمندان را ثروتمندتر میکند و به افرادی که ممکن است شغل خود را از دست بدهند آسیب میرساند. هینتون همچنین از وجود یک رویکرد محتاطانهتر برای توسعه هوش مصنوعی دفاع میکند و میگوید که طی ۵ تا ۲۰سال آینده، هوش مصنوعی میتواند به یک «تهدید در سطح انقراض» برای انسانها تبدیل شود. با این حال «سم آلتمن» مدیرعامل OpenAI، در حال انجام آزمایشات خود در مورد درآمد پایه همگانی است و انتظار میرود نتایج آن به زودی منتشر شود. او اخیرا ایده «محاسبات پایه همگانی» را مطرح کرده و گفته بود که به جای دریافت پول نقد، همه میتوانند بخشی از منابع یک مدل زبانی بزرگ آینده مانند «GPT-7» را دریافت کنند.
لطفاً براي ارسال دیدگاه، ابتدا وارد حساب كاربري خود بشويد