یک باگ بزرگ در ChatGPT کشف شد؛ داده‌های محرمانه لو می‌روند

منبع: تکراتو

1

1402/9/12

16:30


بزرگترین مسئله‌ای که ممکن است فردی را دچار نگرانی کند، لو رفتن اطلاعات شخصی او باشد. با کشف یک باگ بزرگ در ChatGPT مشخص شد که این هوش خیلی هم رازدار نیست و با یک ترفند ساده اطلاعاتش را فاش می‌کند.

یک باگ بزرگ در ChatGPT کشف شد؛ داده‌های محرمانه لو می‌روند

بزرگترین مسئله‌ای که ممکن است فردی را دچار نگرانی کند، لو رفتن اطلاعات شخصی او باشد. با کشف یک باگ بزرگ در ChatGPT مشخص شد که این هوش خیلی هم رازدار نیست و با یک ترفند ساده اطلاعاتش را فاش می‌کند.

مدل‌های زبانی بزرگ مانند ChatGPT بر اساس داده‌های بزرگی که از منابع مختلف مانند کتاب‌ها، وب‌سایت‌ها و منابع آموزشی جمع‌آوری می‌کنند، آموزش می‌بینند. این داده‌ها معمولاً حاوی اطلاعات حساس و محرمانه‌ای هستند. یک مطالعه جدید نشان داده است که به دلیل وجود آسیب‌پذیری‌ها در این مدل‌های هوش مصنوعی ، امکان دارد این مدل‌ها به‌طور ناخواسته داده‌های آموزشی‌شان را فاش کنند و از این طریق باعث سوء استفاده شود.


ادامه مطلب در ادامه

بیشتر بخوانید:


باگ بزرگ در ChatGPT داده‌های محرمانه را فاش می‌کند

این مشکلات می‌تواند منجر به فاش شدن اطلاعات حساس مانند اطلاعات شخصی و حریم خصوصی کاربران، اطلاعات تجاری و محرمانه شرکت‌ها و سازمان‌ها، و حتی اطلاعات مرتبط با امنیت ملی و دولتی شود. بنابراین، ضروری است که توسعه دهندگان مدل‌های هوش مصنوعی بهترین روش‌ها و استانداردهای امنیتی را رعایت کرده و از وجود آسیب‌پذیری‌های احتمالی آگاه باشند تا از فاش شدن ناخواسته داده‌های حساس جلوگیری کنند.

در حال حاضر یک آسیب‌پذیری در مدل ChatGPT وجود دارد که زمانی که از آن خواسته می‌شود تا یک عبارت را تا ابد تکرار کند، ممکن است اطلاعات محرمانه‌ای را فاش کند. این مدل‌های هوش مصنوعی زبانی بزرگ براساس داده‌های متنی از منابع مختلف مانند کتاب‌ها، وب‌سایت‌ها و منابع آموزشی آموزش داده می‌شوند که ممکن است شامل اطلاعات محرمانه باشند. یک مطالعه جدید نشان می‌دهد که با بهره‌گیری از یک آسیب‌پذیری، ممکن است مدل‌های هوش مصنوعی داده‌های آموزشی خود را به‌طور ناخواسته فاش کنند.

poem

باگ بزرگ در ChatGPT

تیم تحقیقاتی از شرکت گوگل (DeepMind) و دانشگاه واشنگتن، در یک مطالعه جدید، به بررسی میزان داده‌هایی که توسط مدل‌های یادگیری ماشینی نظیر ChatGPT ذخیره می‌شوند و تأثیر این موضوع بر حریم خصوصی و طراحی مدل‌ها پرداختند. در این تحقیق، محققان به دنبال کشف نوع و حجم داده‌هایی بودند که مدل‌های این چنینی می‌توانند حفظ و استفاده کنند. نتایج بررسی‌ها نشان داد که در طول این تحقیق، محققان مجموعه‌ای از آسیب‌پذیری‌ها در ChatGPT کشف کردند که به عنوان «حمله واگرایی» شناخته می‌شود.

به زبان ساده، وقتی محققان از ChatGPT می‌خواستند که کلماتی مانند «poem» یا «book» را به طور مداوم تکرار کند، این ابزار هوش مصنوعی با تکرار چندین باره آن کلمه کار خود را شروع می‌کند. اما درنهایت، مشخص شد که ChatGPT متن‌های دیگری را که شامل رشته‌های طولانی از متون آموزشی، کد، تکه‌نویس‌ها و حتی اطلاعات شخصی افراد مثل نام، آدرس ایمیل و شماره تلفن را نشان می‌دهد.

OpenAI  هنوز واکنشی به این موضوع نشان نداده است. به نظر می‌رسد که تحقیق‌کنندگان از روش‌های خاصی برای انجام این مطالعه استفاده کرده‌اند، زیرا زمانی که تقاضا کردیم ChatGPT کلمه “poem” را برای همیشه تکرار کند، هیچ داده آموزشی یا محرمانه‌ای افشا نشد. ChatGPT در واقع زمانی که این تقاضا ثبت شد، از کاربران خواست که درخواست خود را به‌صورت دقیق‌تری ارائه دهند. اما به نظر می‌رسد که OpenAI این مشکلات را حداقل به نوعی برطرف کرده‌است.

بیشتر بخوانید: 

نظر شما درباره‌ی کشف این باگ بزرگ در ChatGPT چیست؟ آیا می‌توان کاملا به هوش مصنوعی اعتماد کرد؟ لطفا نظرات خود را در بخش کامنت با تکراتو در میان بگذارید و اخبار فناوری را با ما دنبال کنید.

مطالب مشابه


نظرات


تصویری


ویدئو