مایکروسافت امنیت چت بات هوش مصنوعی را برای خنثی کردن ترفندها تقویت می کند

شرکت مایکروسافت تعدادی از ویژگی‌های امنیتی را در استودیوی هوش مصنوعی Azure اضافه کرده است که باید با گذشت زمان، احتمال اینکه کاربرانش مدل‌های هوش مصنوعی را در حالتی پیکربندی کنند که به‌طور غیرعادی یا نامناسب عمل کنند را کاهش دهد. واشنگتن، بهبودها را در یک پست وبلاگ، با تاکید بر تضمین یکپارچگی تعاملات هوش مصنوعی و تقویت اعتماد در پایگاه کاربر، تشریح کرد.

سپرهای سریع و موارد دیگر 

از جمله پیشرفت‌های مهم، ایجاد «سپرهای سریع» است، فناوری که برای یافتن و از بین بردن تزریق‌های سریع در حین مکالمه با ربات‌های چت هوش مصنوعی طراحی شده است. اینها به اصطلاح جیلبریک هستند و اساساً ورودی هایی از کاربران هستند که عمداً به گونه ای شکل می گیرند که پاسخ ناخواسته ای را از مدل های هوش مصنوعی ایجاد کنند.

به عنوان مثال، مایکروسافت به طور غیرمستقیم نقش خود را با تزریق سریع ایفا می کند، جایی که اجرای دستورات شیطانی ممکن است، و سناریویی مانند آن ممکن است منجر به عواقب امنیتی شدیدی مانند سرقت داده ها و ربودن سیستم شود. به گفته سارا برد، مدیر تولید مایکروسافت برای هوش مصنوعی مسئول، مکانیسم‌ها برای شناسایی و پاسخ به این تهدیدات بی‌نظیر در زمان واقعی کلیدی هستند.

مایکروسافت اضافه می کند که به زودی هشدارهایی بر روی صفحه نمایش کاربر وجود خواهد داشت که به زمانی اشاره می کند که مدلی احتمالاً اطلاعات نادرست یا گمراه کننده را بیان می کند و کاربرپسندی و اعتماد بیشتری را تضمین می کند.

ایجاد اعتماد در ابزارهای هوش مصنوعی 

تلاش مایکروسافت بخشی از یک ابتکار بزرگتر است که هدف آن جلب اعتماد مردم به هوش مصنوعی مولد به طور فزاینده ای است که به طور گسترده در خدماتی که مصرف کنندگان فردی و مشتریان شرکتی را هدف قرار می دهد، استفاده می شود. مایکروسافت پس از وقوع این موارد، با یک شانه دندانه ظریف کار کرد که به موجب آن کاربران می‌توانستند با چت بات Copilot بازی کنند تا خروجی‌های عجیب و غریب یا مضر تولید کنند. این امر در حمایت از نتیجه ای خواهد بود که نیاز به دفاع قوی در برابر تاکتیک های دستکاری ذکر شده را نشان می دهد که احتمالاً با فناوری های هوش مصنوعی و دانش عمومی افزایش می یابد. پیش‌بینی و سپس کاهش در تشخیص الگوهای حمله است، مانند جایی که مهاجم سؤال را تکرار می‌کند یا در ایفای نقش از او درخواست می‌کند.

مایکروسافت به‌عنوان بزرگ‌ترین سرمایه‌گذار و شریک استراتژیک OpenAI، مرزهای نحوه ترکیب و ایجاد فناوری‌های هوش مصنوعی مولد مسئولانه و ایمن را در پیش می‌گیرد. هر دو متعهد به استقرار مسئولانه و مدل‌های اساسی هوش مصنوعی Generative برای اقدامات ایمنی هستند. اما برد پذیرفت که این مدل‌های زبانی بزرگ، حتی با وجود اینکه به عنوان پایه‌ای برای بسیاری از نوآوری‌های هوش مصنوعی آینده در نظر گرفته می‌شوند، ضد دستکاری نیستند.

ساختن بر این پایه‌ها بسیار بیشتر از تکیه بر خود مدل‌ها است. به یک رویکرد جامع برای ایمنی و امنیت هوش مصنوعی نیاز دارد.

مایکروسافت اخیراً از تقویت اقدامات امنیتی برای استودیوی هوش مصنوعی Azure خود برای نشان دادن و تضمین گام‌های پیشگیرانه‌ای که برای محافظت از تغییر چشم‌انداز تهدیدات هوش مصنوعی در حال انجام است، خبر داده است.

تلاش می‌کند از سوءاستفاده‌های هوش مصنوعی جلوگیری کند و یکپارچگی و قابلیت اطمینان تعامل هوش مصنوعی را با ترکیب صفحه نمایش‌ها و هشدارهای به موقع حفظ کند.

با تکامل مداوم فناوری هوش مصنوعی و پذیرش آن در بسیاری از موارد زندگی روزمره، زمان آن فرا رسیده است که مایکروسافت و بقیه جامعه هوش مصنوعی یک موضع امنیتی بسیار هوشیار داشته باشند.

منبع: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/