یک مطالعه بیسابقه روی ۱۰۰ میلیون پست از انجمنهای سایبری زیرزمینی نشان میدهد که مجرمان سایبری در بهکارگیری هوش مصنوعی در فعالیتهای مجرمانه خود چندان موفق نبودهاند. پژوهشگران میگویند بیشتر هکرها مهارت یا منابع لازم برای استفاده مؤثر از این فناوری را ندارند.
به گزارش خبرآنلاین، به نقل از ایرنا، برخلاف تصور رایج که هوش مصنوعی به ابزاری قدرتمند در دست مجرمان سایبری تبدیل شده است، یک مطالعه جدید نشان میدهد این فناوری هنوز نتوانسته در جوامع زیرزمینی سایبری نفوذ چشمگیری داشته باشد.
پژوهشگران دانشگاههای ادینبرو، کمبریج و استرثکلاید برای این مطالعه، بیش از ۱۰۰ میلیون پست از انجمنهای سایبری زیرزمینی و وب تاریک (دارک وب) را تحلیل کردند. وب تاریک شبکهای است که در دسترس عموم نیست و ردیابی فعالیتها در آن دشوار است.
مجرمان چگونه از هوش مصنوعی استفاده میکنند؟
پژوهشگران دریافتند هوش مصنوعی در دو زمینه با موفقیت نسبی بهکار گرفته شده است:
- پنهانکردن الگوهای قابل شناسایی: مجرمان از هوش مصنوعی برای طبیعیتر نشاندادن فعالیتهای مجرمانه خود استفاده میکنند تا کمتر توسط سامانههای دفاع سایبری شناسایی شوند.
- باتهای رسانههای اجتماعی (رباتهای خودکار): این رباتها برای آزار و اذیت برخط (آنلاین)، تولید محتوای جعلی و کلاهبرداری استفاده میشوند و میتوانند در حجم انبوه عمل کنند.
با این حال، استفاده از دستیارهای کدنویسی هوش مصنوعی عمدتاً برای هکرهای ماهر مفید بوده است. این فناوری نتوانسته سطح مهارت لازم برای ارتکاب جرایم سایبری را کاهش دهد، زیرا استفاده از این ابزارها همچنان به دانش و مهارت فوقالعادهای نیاز دارد.
دیدگاههای متفاوت در جامعه هکرها
در انجمنهای سایبری، دیدگاههای متفاوتی درباره هوش مصنوعی وجود دارد. برخی هکرها استفاده از چتباتها را تقلب در هک میدانند و معتقدند این کار ارزش مهارت و خلاقیت واقعی را کاهش میدهد. در مقابل، گروهی دیگر معتقدند برای بهرهمندی واقعی از هوش مصنوعی در جرایم سایبری، ابتدا باید مهارتهای عمیق هکری داشت.
پژوهشگران همچنین هشدار میدهند که وایب کدینگ (Vibe Coding) میتواند منجر به تولید نرمافزارهای ناامن شود؛ این پدیده یعنی افراد بدون تخصص کدنویسی، از هوش مصنوعی میخواهند کد بنویسد و بدون اینکه بدانند آن کد چه کار میکند، از آن استفاده میکنند؛ دقیقاً همان چیزی که مجرمان به راحتی از آن سوءاستفاده میکنند.
بسیاری از اعضای جوامع سایبری، نگران از دستدادن شغل خود در صنعت فناوری اطلاعات به دلیل پیشرفت هوش مصنوعی هستند. پژوهشگران هشدار میدهند که این نگرانی میتواند افراد ماهر را به سمت فعالیتهای مجرمانه سایبری سوق دهد؛ چراکه آنها ممکن است پس از بیکاری، برای تأمین درآمد به جرایم سایبری روی آورند.
قوانین و موانع امنیتی بهکار گرفتهشده در چتباتهای معروفی مانند چتجیپیتی، جمینای، کلود و دیپسیک، تأثیر چشمگیری در کاهش سوءاستفاده از این ابزارها داشته است؛ به عبارت دیگر، این چتباتها طوری طراحی شدهاند که به درخواستهای غیراخلاقی و مجرمانه پاسخ نمیدهند؛ اما شواهد اولیه نشان میدهد اعضای جوامع سایبری در دستکاری خروجی این چتباتها موفقیتهایی کسب کردهاند؛ به این معنا که آنها را مجبور میکنند برخلاف قوانینشان پاسخ دهند.
خطر واقعی از کجاست؟
پژوهشگران تأکید میکنند که خطر واقعی، استفاده مستقیم مجرمان از سامانههای هوش مصنوعی خودمختار (نوعی هوش مصنوعی که میتواند بدون دخالت انسان تصمیم بگیرد و عمل کند) نیست. بلکه خطر بزرگتر، شرکتها و افرادی هستند که سامانههای هوش مصنوعی ضعیف و ناامن را به کار میگیرند و خود را در معرض حملات قرار میدهند.
دکتر بن کالییِر (Ben Collier)، پژوهشگر دانشگاه ادینبرو، میگوید: مجرمان سایبری در حال آزمایش این ابزارها هستند، اما شواهد نشان میدهد که این ابزارها مزیت چشمگیری برای فعالیتهای مجرمانه آنها ایجاد نکرده است. پیام ما به صنعت این است که هنوز دلیلی برای وحشت وجود ندارد.
خطر فوری نه از سوی خود مجرمان، بلکه از سوی شرکتها و کاربرانی است که سامانههای هوش مصنوعی ضعیف و بدون محافظت را بهکار میگیرند و خود را در معرض حملات سادهای قرار میدهند که هر مجرمی با کمترین مهارت میتواند انجام دهد.
۵۸۵۸