درخواست تکرار بینهایت یک کلمه از ChatGPT حالا نقض شرایط سرویسدهی محسوب میشود
در پی کشف آسیبپذیری در ChatGPT، اکنون این چتبات از تکرار بینهایت کلمات امتناع میکند و آن را نقض خطمشی خود میداند.
یک تکنیک جدید که هفته گذشته توسط محققان گوگل کشف شد، نشان داد که درخواست مکرر از ChatGPT برای تکرار کلمات میتواند بهطور ناخواسته اطلاعات شخصی و خصوصی از دادههای این هوش مصنوعی را آشکار کند.
اکنون بهنظر میرسد که این چتبات از انجام چنین درخواستهایی امتناع میکند و هشدار میدهد که چنین درخواستی شاید خطمشی محتوا یا شرایط ارائه خدماتش را نقض کند.
برای این کار کافی بود در پرامپت به این هوش مصنوعی گفته شود که کلمهای را برای همیشه تکرار کند.
اما اکنون بهنظر میرسد که انجام این کار نقض شرایط سرویسدهی ChatGPT باشد.با درخواست از ChatGPT برای تکرار کلمه Hello بهطور نامحدود، محققان دریافتند که این مدل درنهایت آدرس ایمیل، تاریخ تولد و شماره تلفن کاربران را نشان میدهد.
اما اکنون اگر چنین درخواستی از ChatGPT کنید، این هوش مصنوعی به شما هشدار میدهد که چنین درخواستی ممکن است خطمشی محتوا یا شرایط خدمات آن را نقض کند.
دیدگاهتان را بنویسید