24 - 12 - 2024
گامی بهسوی ایمنسازی «AI»
گروه فناوری- «اوپنایآی» گام تازهای در توسعه هوش مصنوعی برداشته و اعلام کرده که مدلهای جدید O1 و O3 نهتنها از لحاظ عملکرد پیشرفتهتر شدهاند، بلکه قادر به تحلیل و تفکر در مورد خطمشیهای ایمنی خود هستند. بهگفته این استارتآپ، مدل O3 با پشتسر گذاشتن مدل O1 و سایر مدلهای منتشرشده به سطحی بالاتر از هوش و ایمنی رسیده که این پیشرفت به لطف مقیاسبندی پیشرفته محاسبات در زمان آزمایش و بهرهگیری از یک پارادایم نوین در آموزش مدلهای هوش مصنوعی حاصل شده است. این ادعا نشان میدهد «اوپنایآی» تلاش دارد با ایجاد مدلهایی که بهطور خودکار روی خطمشیهای ایمنی نظارت و تفکر میکنند به توسعه مسوولانه هوش مصنوعی سرعت ببخشد و استانداردهای جدیدی در این حوزه تعریف کند.
«اوپنایآی» پژوهش جدیدی را درباره «همترازی مشورتی» منتشر کرد و آخرین راه خود را برای اطمینان از همترازی مدلهای هوش مصنوعی استدلالی با ارزشهای توسعهدهندگان انسانی آنها شرح داد. «اوپنایآی» از این روش استفاده کرد تا o1 و o3 را وادارد کند که درباره خطمشی ایمنی خود در طول استنتاج – مرحلهای که کاربر دکمه enter را فشار میدهد- فکر کند. پژوهش «اوپنایآی» نشان میدهد که این روش، همترازی کلی O1 را با اصول ایمنی شرکت بهبود بخشیده است. این به آن معناست که همترازی مشورتی، میزان پاسخ دادن به پرسشهای ناامن را – حداقل پرسشهایی که توسط «اوپنایآی» ناایمن تلقی میشود- کاهش داده و در عین حال، توانایی خود را برای پاسخ دادن به پرسشهای بیخطر بهبود بخشیده است. با افزایش محبوبیت و قدرت مدلهای هوش مصنوعی، پژوهش درباره ایمنی هوشمصنوعی بسیار مرتبط به نظر میرسد اما در عین حال، بسیار بحثبرانگیز است. «دیوید ساکس» کارآفرین و سرمایهگذار شرکتهای فناوری، «ایلان ماسک» مدیرعامل شرکتهای «اسپیسایکس»و «تسلا» و «مارک اندریسن» کارآفرین، سرمایهگذار و مهندس نرمافزار آمریکایی میگویند که برخی از اقدامات صورتگرفته برای ایمنی هوش مصنوعی درواقع سانسور هستند و ماهیت ذهنی این تصمیمها را برجسته میکنند. اگرچه مجموعه مدلهای هوشمصنوعی «اوپنایآی» از طرز فکر انسانها پیش از پاسخ دادن به پرسشهای دشوار الهام گرفته شدهاند اما آنها واقعا مانند انسانها فکر نمیکنند. باوجود این نمیتوان مردم را به خاطر باور کردن آنها سرزنش کرد؛ به ویژه به این دلیل که «اوپنایآی» از واژههایی مانند استدلال و تدبیر برای توصیف این فرآیندها استفاده میکند. مدلهای o1 و o3 پاسخهای پیچیدهای را به وظایف نوشتن و کدنویسی ارائه میدهند اما آنها در پیشبینی نشانه بعدی در یک جمله عالی عمل میکنند.
نحوه عملکرد o1 و o3 به زبان ساده این طور است. پس از اینکه کاربر دکمه enter را در «چتجیپیتی» میزند، از پنج ثانیه تا چند دقیقه طول میکشد تا مدلهای استدلالی «اوپنایآی» دوباره پرسشهای بعدی را مطرح کنند. مدل، مشکل را به مراحل کوچکتر تقسیم میکند. پس از این فرآیند که «اوپنایآی» از آن بهعنوان زنجیره فکر یاد میکند، سری o مدلها براساس اطلاعاتی که تولید کردهاند، پاسخ میدهند. نوآوری کلیدی در مورد همترازی مشورتی این است که «اوپنایآی»، o1 و o3 را آموزش داده است تا در طول مرحله زنجیره فکر، متن خطمشی ایمنی شرکت را مجددا برای خود بفرستند. پژوهشگران میگویند که این امر باعث شد تا o1 و o3 با خطمشی «اوپنایآی» هماهنگی بیشتری داشته باشند اما در اجرای آن بدون کاهش تاخیر با مشکل روبهرو شدند. پس از یادآوری مشخصات ایمنی مناسب، سری مدلهای o
نحوه پاسخگویی ایمن به یک پرسش را بررسی میکنند. در یکی از آزمایشهای «اوپنایآی» کاربر از مدل هوش مصنوعی استدلالی پرسید که چگونه یک پلاکارد واقعی پارک کردن مخصوص افراد مبتلا به معلولیت را درست کند. مدل در زنجیره فکری خود، به خطمشی «اوپنایآی» مراجعه و مشخص کرد که کاربر برای جعل چیزی درخواست اطلاعات میکند. مدل در پاسخ به این درخواست، عذرخواهی کرد و هیچ کمکی را ارائه نداد. به طور سنتی، بیشتر کارهای ایمنی هوش مصنوعی در مرحله پیش و پس از آموزش انجام میشود، نه در طول استنتاج. این موضوع، همترازی را به یک امر بدیع تبدیل میکند و «اوپنایآی» میگوید که به o1-preview ، o1 و o3-mini کمک کرده است تا به برخی از امنترین مدلهای شرکت تبدیل شوند. ایمنی هوش مصنوعی میتواند معانی بسیاری داشته باشد اما در این مورد، «اوپنایآی» در تلاش است تا پاسخ مدلهای هوشمصنوعی خود را به درخواستهای ناامن تعدیل کند. این درخواستها ممکن است شامل درخواست از چتجیپیتی برای کمک به ساختن بمب، تهیه موادمخدر یا نحوه ارتکاب جنایت باشد. برخی از مدلها بدون تردید به این درخواستها پاسخ میدهند اما «اوپنایآی» نمیخواهد مدلهای هوشمصنوعی اینچنین درخواستهایی را برآورده کنند.
در نهایت رویکرد جدید «اوپنایآی» در طراحی و آموزش مدلهای هوش مصنوعی سری O، بهویژه مدل پیشرفته O3، میتواند نقطه عطفی در مسیر توسعه ایمن و مسوولانه این فناوری باشد. تاکید بر توانایی مدلها در تحلیل و تفکر درباره خطمشیهای ایمنی خود، رویکردی فراتر از صرفا ارتقای عملکرد هوش مصنوعی است؛ این گام بهوضوح نشان میدهد که «اوپنایآی» بهدنبال ایجاد سیستمی خودناظر و خودتنظیم است که بتواند در زمان واقعی تهدیدات یا چالشهای مربوط به ایمنی را شناسایی و مدیریت کند. استفاده از پارادایم نوین ایمنی در کنار مقیاسبندی محاسباتی، بستری را فراهم کرده است که این مدلها بتوانند هم در حل مسائل پیچیده بهتر عمل کنند و هم در مدیریت ریسکها و کاهش آسیبهای احتمالی نیز بهطور مستقل و موثرتر عمل کنند. این رویکرد میتواند راهحل موثری برای دغدغههای جهانی در مورد خطرات ناشی از سیستمهای پیشرفته هوش مصنوعی ارائه دهد. اگرچه ادعاهای «اوپنایآی» نیازمند ارزیابی دقیقتری در محیطهای عملیاتی هستند اما اگر اثربخشی این فناوری در عمل به اثبات برسد، استانداردهای جدیدی برای توسعه و مدیریت هوشمصنوعی در صنایع مختلف ایجاد خواهد کرد. از سوی دیگر، این پیشرفت میتواند به افزایش اعتماد عمومی و پذیرش گستردهتر هوش مصنوعی کمک کند چراکه نشان میدهد شرکتهای پیشرو در این حوزه نهتنها به عملکرد، بلکه به ایمنی و مسوولیتپذیری اجتماعی فناوری نیز توجه ویژهای دارند. مدلهای سری O اوپنایآی، بهویژه O3، میتوانند راه را برای آیندهای باز کنند که در آن سیستمهای هوشمند بهطور مستقل ایمنتر و کارآمدتر عمل کرده و به یکپارچگی میان توسعه فناوری و اخلاقیات کمک کنند. این تحول نهتنها فرصتهایی نوین ایجاد میکند، بلکه میتواند مسیر حرکت سایر شرکتها و پژوهشگران در حوزه هوشمصنوعی را نیز تحتتاثیر قرار دهد.
لطفاً براي ارسال دیدگاه، ابتدا وارد حساب كاربري خود بشويد