تیم هوش مصنوعی مسئول متا منحل شد

منبع: تکراتو

2

1402/8/28

17:07


تیم هوش مصنوعی مسئول متا منحل شد تا منابع بیشتری برای توسعۀ هوش مصنوعی مولد اختصاص داده شوند. سایت اینفورمیشن امروز این خبر را منتشر کرد و آن را به یک پست داخلی در شرکت متا ارجاع داد.

تیم هوش مصنوعی مسئول متا منحل شد

تیم هوش مصنوعی مسئول متا منحل شد تا منابع بیشتری برای توسعۀ هوش مصنوعی مولد اختصاص داده شوند. سایت اینفورمیشن امروز این خبر را منتشر کرد و آن را به یک پست داخلی در شرکت متا ارجاع داد.

بر اساس این گزارش، اکثر اعضای تیم هوش مصنوعی مسئول متا به تیم محصولات هوش مصنوعی مولد این شرکت منتقل می‌شوند؛ این در حالی است که دیگر کارکنان بر روی زیرساخت‌های هوش مصنوعی Meta کار خواهند کرد.

این شرکت به طور منظم اعلام می‌کند که می‌خواهد هوش مصنوعی مسئول (RAI) را توسعه دهد و حتی یک صفحۀ کامل را به این موضوع اختصاص داده است. شرکت در این صفحه فهرستی از ارکان هوش مصنوعی مسئول را درج کرده است. از جمله این ارکان می‌توان به مسئولیت‌پذیری، شفافیت، ایمنی، حریم خصوصی و چند مورد دیگر اشاره کرد.


ادامه مطلب در ادامه

بیشتر بخوانید:


انحلال تیم هوش مصنوعی مسئول متا

در گزارش سایت اینفورمیشن به نقل از جان کارویل (Jon Carvill)، نماینده شرکت Meta آمده: «شرکت به اولویت‌بندی و سرمایه‌گذاری در توسعه ایمن و مسئولانۀ هوش مصنوعی ادامه خواهد داد.» او همچنین افزود که این شرکت در حال تفکیک تیم است و اعضای تیم به حمایت از تلاش‌های مرتبط در توسعه و استفاده از هوش مصنوعی مسئول ادامه خواهند داد. تا زمان انتشار این خبر، متا به درخواست برای ارائه نظر پاسخ روشنی نداده است.

تیم هوش مصنوعی مسئول متا

تیم متا پیش‌تر در سال جاری با یک بازسازی روبه‌رو شد. طبق گزارش Business Insider این بازسازی شامل اخراج‌هایی در تیم RAI بود که این تیم را تبدیل به یک پوستۀ ظاهری کرد. در ادامۀ این گزارش آمده که تیم RAI که از سال 2019 شروع به کار کرده بود استقلال کمی داشته و برنامه‌های تیم باید از طریق مذاکرات طولانی با سهامداران تصویب و اجرا می‌شدند.

تیم هوش مصنوعی مسئول متا برای شناسایی مشکلاتی که در رویکردهای آموزشی هوش مصنوعی وجود داشت شکل گرفت. از جمله این مشکلات این بود که آیا مدل‌های هوش مصنوعی این شرکت با اطلاعات متنوع و کافی آموزش داده شده‌اند؟ هدف این تیم جلوگیری از مشکلاتی مانند مسائل مدیریتی در پلتفرم‌های Meta بود. سیستم‌های خودکار در شبکه‌های اجتماعی متا باعث بروز مشکلاتی شده‌اند، مثل ترجمه در فیسبوک که منجر به یک دستگیری اشتباه شد. یا تولید استیکرهای مبتنی بر هوش مصنوعی در واتساپ که باعث تولید تصاویر مغرضانه شد و الگوریتم‌های اینستاگرام که به افراد در پیدا کردن مواد و سوءاستفاده جنسی از کودکان کمک می‌کند.

تصمیماتی مثل تصمیم شرکت متا و تصمیم مشابهی که شرکت مایکروسافت در ابتدای سال گرفت، در حالی گرفته شده‌اند که دولت‌های جهان برای ایجاد قوانین و مقرارات جدید برای توسعه هوش مصنوعی با هم رقابت می‌کنند. دولت آمریکا با شرکت‌های هوش مصنوعی به توافقاتی رسیده است و بعد از این توافقات رئیس جمهور بایدن دستور داد تا آژانس‌های دولتی برای ایجاد قوانین ایمنی برای هوش مصنوعی سریعا اقدام کنند. در این حین اتحادیه اروپا اصول هوش مصنوعی خود را منتشر کرده و در تلاش است هرچه زودتر قوانین خود را برای هوش مصنوعی تصویب کند.

به نظر شما با این تصمیمات گسترده و ارائه قوانین جدید می‌توان امنیت کاربران را در برابر هوش مصنوعی تضمین کرد و این اختراع شگفت‌انگیز بشری را تحت کنترل گرفت؟ نظرات خود را در بخش نظرات با ما و دیگر کاربران به اشتراک بگذارید و برای آگاهی از جدیدترین اخبار تکنولوژی تکراتو را دنبال کنید.

بیشتر بخوانید:

منبع: theverge

مطالب مشابه


نظرات


تصویری


ویدئو