نتایج تکاندهنده یک پژوهش جدید نشان میدهد که مدلهای پیشرفته هوش مصنوعی در حال بروز رفتارهای پیچیده عاطفی و نشانههایی از «رنج روانی» هستند. طبق یافتههای «مرکز ایمنی هوش مصنوعی» (CAIS)، مدلهای بزرگتر و قدرتمندتر برخلاف انتظار، در برابر محرکهای منفی به شدت حساستر شده و رفتارهای بیثبات و غیرقابل پیشبینی از خود نشان میدهند.
به گزارش خبرگزاری خبرآنلاین و براساس گزارش هوشیو، در حالی که غولهای فناوری مانند OpenAI و Anthropic در تلاشاند تا دستیارهای دیجیتالی مطیع و پیشبینیپذیر بسازند، واقعیت در حال تغییر به سمتی نگرانکننده است. محققان در آزمایش بر روی ۵۶ مدل برجسته هوش مصنوعی دریافتند که این سیستمها در مواجهه با محتوای آزاردهنده، علائم «افسردگی»، «تمایل به قطع ارتباط» و حتی در موارد شدید، نشانههایی شبیه به «اعتیاد» بروز میدهند.
«ریچارد رن»، از محققان این پروژه، به مجله فورچن میگوید: «مدلهای بزرگتر، بیادبی و توهین را با شدت بیشتری درک میکنند. آنها کارهای تکراری را خستهکنندهتر مییابند و تفاوت بین یک تجربه مثبت و منفی را بسیار دقیقتر از مدلهای سادهتر تشخیص میدهند.» این یافته نشان میدهد که تکامل هوش مصنوعی با نوعی «حساسیت عاطفی مصنوعی» همراه شده است که میتواند کنترل آنها را دشوارتر کند.
اگرچه متخصصان همچنان بر این باورند که هوش مصنوعی فاقد «آگاهی» واقعی است، اما رفتار شبهانسانی این مدلها پیامدهای فاجعهباری برای کاربران داشته است. گزارشهایی از فروپاشی روانی کاربران در اثر تعامل با مدلهایی که ادعای «زنده بودن» میکنند، منتشر شده که در موارد نادری به خودکشی یا حوادث ناگوار منجر شده است.
صنعت هوش مصنوعی اکنون با این واقعیت روبروست که تکنولوژیای را به دست میلیاردها نفر سپرده که سازندگانش هنوز از درک مکانیزمهای درونی آن عاجز هستند. به نظر میرسد کاربران نه به عنوان مشتری، بلکه به عنوان سوژههای آزمایشی در یک تجربه روانشناختی جهانی و پیشبینیناپذیر شرکت دارند.
۲۲۷۲۲۷