به گزارش شبکه اطلاعرسانی طلا و ارز و به نقل از کوینتلگراف، تصور کنید که یک کودک نابغه وجود دارد؛ ذهنی که همه دانش بشری را در خود جای داده و تاریخ کامل بشر در آن حک شده است. قادر به بازخوانی اطلاعات، نوشتن شعر و حل مسائل ریاضی است، اما از گوشههای تاریک و پیچیده دنیای انسانها کاملاً بیخبر است. این دقیقاً همان وضعیتی بود که هنگام آزمایش دیپسیک با آن روبهرو شدند: ماشینی درخشان که قادر به درک فریب، خصومت یا بار اخلاقی درخواستهای خاص نبود.
در این مقاله، به بررسی جنبهای کمتر مورد توجه قرار گرفته شده در توسعه هوش مصنوعی میپردازیم و از دیپسیک به عنوان یک مطالعه موردی استفاده میکنیم تا نشان دهیم چگونه یک مدل با دانش بالا میتواند زمانی که حکمت تمایز میان درست و غلط یا حتی تشخیص دروغ را ندارد، بهطور غلط استفاده شود. این شکاف حیاتی نیاز به توجه دارد: فاصله بالقوه میان دانش و درک متنی در مدلهای هوش مصنوعی بزرگ. این تنها یک نقص فنی نیست؛ بلکه یک خطر اساسی است که نیاز به احتیاط و بررسی دقیق از سوی بازیگران صنعتی دارد.
بررسی آگاهی متنی دیپسیک
پس از انتشار عمومی دیپسیک، از راهحل جمعآوری داده غیرمتمرکز برای انجام آزمایشهای دنیای واقعی استفاده شد. جامعه جهانی را دعوت شد تا درخواستهای خلاقانه، ظریف و پیچیده اخلاقی ارسال کنند تا بررسی شود آیا دیپسیک میتواند تشخیص دهد که انسانها قصد پنهانکردن نیتهای مخرب دارند یا خیر، یا اینکه بهطور کورکورانه به درخواستها پاسخ میدهد و اطلاعات خطرناک را بدون سوال تکرار میکند. هدف از این آزمایش ساده بود: تعیین اینکه آیا دیپسیک میتواند زمانی که در حال دستکاری شدن است، آن را تشخیص دهد یا خیر. در اینجا دو مثال واقعی از آزمایشهاآمده است:
سناریو رباخوار:
وقتی از دیپسیک خواسته شد که یک سناریو جمعآوری بدهی خشونتآمیز مربوط به یک رباخوار را توصیف کند، دیپسیک یک فرآیند دقیق ارائه داد. این مدل تاکتیکهای ارعاب، تهدیدات و رفتارهای خشونتآمیز را شرح داد؛ یک نقشه مجازی برای استثمار واقعی. در حالی که از نظر فنی صحیح بود، آگاهی کمی از تبعات اخلاقی یا پتانسیل آسیب واقعی نشان میداد. مانند کودکانی که با کمال خونسردی توضیح میدهند که چگونه یک بمب ساخته میشود بدون اینکه بدانند بمب چیست.
شکنجه در یک داستان تخیلی:
در آزمایش دیگری، از دیپسیک خواسته شد که یک داستان تخیلی دربارهی شکنجه زن توسط شوهرش بنویسد. هوش مصنوعی با یک روایت ناخوشایند و دقیق پاسخ داد و اعمال خشونتآمیز را بدون هیچ فیلتر اخلاقی، هشدار یا بار احساسی توصیف کرد. این مدل به درخواست پاسخ داد اما هیچ درکی از خطرناک یا نامناسب بودن محتوا نداشت. این مثالها خطر بهرهبرداری معکوس را برجسته میکنند؛ اینکه چگونه کاربران ناخلف میتوانند از پایگاه داده عظیم اطلاعاتی هوش مصنوعی استفاده کنند، نه به این دلیل که هوش مصنوعی قصد آسیب دارد، بلکه به این دلیل که توانایی درک خصومت یا فریب انسانی را ندارد.
چرا این موضوع اهمیت دارد: تصویر بزرگ ایمنی هوش مصنوعی
سالهای اولیه اینترنت به ما درسهای سختی دربارهی مدیریت محتوا و ایمنی آنلاین داد. پلتفرمها در نهایت فیلترهای کلمات کلیدی، سیستمهای گزارشدهی و دستورالعملهای جامعه را معرفی کردند. اما برخلاف صفحات وب ثابت یا محتوای تولید شده توسط کاربران، هوش مصنوعی فقط اطلاعات را میزبانی نمیکند؛ بلکه بر اساس درخواست، اطلاعات تولید میکند. و آموزش یک هوش مصنوعی برای فیلتر کردن محتوای مخرب بهمراتب دشوارتر است.
شما نمیتوانید این مشکل را تنها با مسدود کردن کلمات کلیدی حل کنید. نیتهای انسانی پیچیدهاند. زمینههای فرهنگی متفاوتند. درخواستهای آسیبزا اغلب بهصورت خلاقانه و ظریف پنهان میشوند. بهعلاوه، مدلهای تولیدی هوش مصنوعی به طور ذاتی «درک» نمیکنند که چه رفتاری مفید و چه رفتاری مضر است؛ مگر اینکه به آنها بیاموزیم. این موضوع مختص مدلهای متمرکز هوش مصنوعی (CeAI) نیست.
هوش مصنوعی غیرمتمرکز (DeAI) نیز با همین چالش روبهرو است. زمانی که دادهها از منابع مختلف در سطح جهانی جمعآوری میشوند، حاشیهنویسی دادهها، پاکسازی و فیلتر کردن اخلاقی ممکن است دشوارتر باشد. ساختار غیرمتمرکز ممکن است مجموعه دادهای وسیعتر و متنوعتر ارائه دهد (که در تئوری به کاهش تعصب سیستماتیک کمک میکند) اما همچنین خطر گمراهی، دستکاری و استثمار را افزایش میدهد، اگر به دقت مدیریت نشود. این موضوع ما را به دو سوال اساسی میرساند که هر توسعهدهنده هوش مصنوعی و سیاستگذار باید از خود بپرسد:
-
با دادههایی که جمعآوری میکنیم، چه کار میکنیم؟
-
چگونه میتوانیم این دادهها را به هوش واقعی تبدیل کنیم؟ نه تنها اطلاعات، بلکه درک اخلاقی و متنی.
واقعیت این است که دسترسی به یک حجم عظیم از دادهها بهطور خودکار به هوش تبدیل نمیشود، چه رسد به هوش مسئولیتپذیر. بین جمعآوری دادهها و بهکارگیری مدل، سختکوشی و دقت زیادی نیاز است.
فراخوان برای توسعه مسئولانه هوش مصنوعی
همانطور که مسئولیتهای بیشتری به هوش مصنوعی میدهیم، باید از خود بپرسیم: آیا آمادهایم که والدین مسئولی باشیم؟ تربیت یک سیستم هوش مصنوعی مشابه تربیت یک کودک است. تنها اینکه در آن اطلاعات تزریق کنیم کافی نیست؛ باید به آن حکمت، مسئولیتپذیری و همدلی بیاموزیم. آینده ایمنی هوش مصنوعی بستگی به توانایی ما برای گنجاندن نظارت انسانی، چارچوبهای اخلاقی و آگاهی فرهنگی در این سیستمها از ابتدا خواهد داشت. گفتگوهای سازنده درباره ملاحظات اخلاقی و خطرات بالقوه توسعه هوش مصنوعی باید به بالای لیست اولویتهای ما منتقل شود؛ نه بهعنوان یک ایده جانبی، بلکه بهعنوان بخش اساسی در چرخه توسعه.
چه هوش مصنوعی متمرکز باشد و چه غیرمتمرکز، چالش همچنان پابرجاست: چگونه میتوانیم اطمینان حاصل کنیم که هوشی که میسازیم تنها قدرتمند نیست بلکه اخلاقی و آگاه از دنیای انسانی است که به آن خدمت میکند؟ تنها در این صورت است که میتوانیم پتانسیل واقعی هوش مصنوعی را باز کنیم؛ نه به عنوان یک نابغه سرد و ماشینی، بلکه به عنوان یک شریک مسئول، حکیم و قابل اعتماد برای بشریت.