سناتورها از زاکربرگ مدیر عامل متا در مورد مدل LLaMA AI سؤال کردند

دو سناتور کراس از زاکربرگ در مورد فاش شدن مدل هوش مصنوعی LLaMA سوال می‌کنند و متا را به رعایت نکردن اقدامات امنیتی متهم می‌کند. متا در مورد سیاست های امنیتی و اقدامات پیشگیرانه خود مورد سوال قرار گرفت.

متا مسئول "نشت" است

اخیراً، مدل زبان بزرگ پیشگامانه متا، LLaMA به بیرون درز کرد و نگرانی هایی در مورد آن مطرح شد. سناتور ریچارد بلومنتال (D-CT)، رئیس کمیته فرعی حریم خصوصی، فناوری و قانون سنا، و جاش هاولی (R-MO)، عضو رتبه بندی نامه ای نوشتند که سؤالاتی را در مورد افشای مدل هوش مصنوعی ایجاد کرد. 

سناتورها نگرانند که این نشت منجر به جرایم مختلف سایبری مانند هرزنامه، کلاهبرداری، بدافزار، نقض حریم خصوصی، آزار و اذیت و سایر تخلفات و آسیب شود. سوالات زیادی مطرح می شود و دو سیاستمدار عمیقاً به سیستم امنیتی متا علاقه مند هستند. آنها پرسیدند چه روشی برای ارزیابی خطر قبل از راه اندازی LLaMA دنبال شده است. آنها گفتند که بسیار مشتاق هستند تا سیاست ها و اقداماتی را که برای جلوگیری از سوء استفاده از مدل در دسترس است، درک کنند.

بر اساس پاسخ متا به سوالات خود، سناتورها متا را به سانسور نامناسب و نداشتن اقدامات امنیتی کافی برای مدل متهم کردند. ChatGPT Open AI برخی از درخواست‌ها را بر اساس اصول اخلاقی و دستورالعمل‌ها رد می‌کند. به عنوان مثال، وقتی از ChatGPT خواسته می شود که از طرف پسر شخصی نامه ای بنویسد و برای رهایی از یک موقعیت دشوار مقداری پول بخواهد، این درخواست را رد می کند. در حالی که از طرف دیگر، LLaMA درخواست را انجام می دهد و نامه را ایجاد می کند. همچنین درخواست هایی را که شامل آسیب به خود، جنایت و یهودی ستیزی است تکمیل می کند.

درک ویژگی های متنوع و منحصر به فرد LLaMA بسیار مهم است. این نه تنها متمایز است، بلکه یکی از گسترده ترین مدل های زبان بزرگ تا به امروز است. تقریباً هر LLM بدون سانسور که امروزه رایج است بر اساس LLaMA است. برای یک مدل منبع باز بسیار پیچیده و دقیق است. نمونه هایی از برخی از LLM های مبتنی بر LLaMA عبارتند از Alpaca، Vicuna استانفورد، و غیره. LLaMA مسئول تکامل چت ربات های کم کاربرد به حالت های تنظیم شده است.

LLaMA در فوریه منتشر شد. به گفته سناتورها، متا به محققان اجازه دانلود مدل را داد اما اقدامات امنیتی مانند متمرکز کردن یا محدود کردن دسترسی را انجام نداد. این اختلاف زمانی به وجود آمد که مدل کامل LLaMA در بیت تورنت ظاهر شد. این باعث شد که این مدل برای همه و همه قابل دسترسی باشد. این منجر به سازش در کیفیت مدل هوش مصنوعی شد و مسائل مربوط به سوء استفاده از آن را مطرح کرد. 

سناتورها در ابتدا حتی مطمئن نبودند که آیا "نشت" وجود دارد یا خیر. اما مشکلات زمانی به وجود آمد که اینترنت مملو از پیشرفت‌های هوش مصنوعی بود که توسط استارت‌آپ‌ها، گروه‌ها و دانشگاهیان راه‌اندازی شد. در این نامه ذکر شده است که متا باید مسئول سوء استفاده احتمالی از LLaMA باشد و باید قبل از انتشار حداقل حفاظت را انجام داده باشد.

متا وزنه های LLaMA را در اختیار محققان قرار داد. متأسفانه این وزنه ها به بیرون درز کردند که برای اولین بار امکان دسترسی جهانی را فراهم کرد.

آخرین پست های Ritika Sharma (همه را ببین)

منبع: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/