محققان در مورد دور زدن محدودیت های ChatGPT توسط هکرها هشدار دادند

محققان در مورد دور زدن محدودیت های ChatGPT توسط هکرها هشدار دادند

محققان می گویند محدودیت های قرار داده شده در چت بات ChatGPT توسط OpenAI برای جلوگیری از سو استفاده چندان کارایی نداشته و کلاهبرداران با دور زدن آن توانسته اند از این فناوری برای تولید کدهای بدافزار استفاده کنند.

به گزارش تکنا، گزارش های جدید نشان می دهد کلاهبرداران از چت بات ChatGPT برای بهبود کدهای یک بدافزار استفاده کرده اند.

امکان استفاده از چت بات ChatGPT به دو روش وجود دارد. یکی از آنها رابط کاربری وب و دیگری رابط های برنامه نویسی و ساخت برنامه هاست. از طریق API امکان استفاده از مدل های OpenAI در رابط کاربری توسعه دهندگان وجود دارد.

به گفته محققان، با وجود محدودیت های قوی در رابطه با استفاده از رابط وب، OpenAI هیچ محدودیتی در استفاده از رابط API ایجاد نکرده است. در این مورد گفته شده است: در حال حاضر در نسخه کنونی API OpenAI محدودیت های مربوط به ضد سواستفاده بسیار کم است. بنابراین به راحتی می توان محتوای مخرب مانند ایمیل های فیشینگ و کدهای بدافزار ایجاد و به کاربران ارسال کرد.

این محققان همچنین اعلام کردند در محافل زیرزمینی اینترنت تلاش برای دور زدن محدودیت های ChatGPT انجام می شود و نشان دهنده تعداد زیادی از هکرها از امکان دور زدن محدودیت ها آگاه هستند. شرکت بلک بری اخیرا نظرسنجی ای را در این رابطه انجام داده است که نشان می دهد اکثر کارشناسان آی تی معتقدند که اولین حمله سالاری با استفاده از ChatGPT در کمتر از یکسال دیگر رخ می دهد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مقالات مرتبط