شرکت مایکروسافت تعدادی از ویژگیهای امنیتی را در استودیوی هوش مصنوعی Azure اضافه کرده است که باید با گذشت زمان، احتمال اینکه کاربرانش مدلهای هوش مصنوعی را در حالتی پیکربندی کنند که بهطور غیرعادی یا نامناسب عمل کنند را کاهش دهد. واشنگتن، بهبودها را در یک پست وبلاگ، با تاکید بر تضمین یکپارچگی تعاملات هوش مصنوعی و تقویت اعتماد در پایگاه کاربر، تشریح کرد.
سپرهای سریع و موارد دیگر
از جمله پیشرفتهای مهم، ایجاد «سپرهای سریع» است، فناوری که برای یافتن و از بین بردن تزریقهای سریع در حین مکالمه با رباتهای چت هوش مصنوعی طراحی شده است. اینها به اصطلاح جیلبریک هستند و اساساً ورودی هایی از کاربران هستند که عمداً به گونه ای شکل می گیرند که پاسخ ناخواسته ای را از مدل های هوش مصنوعی ایجاد کنند.
به عنوان مثال، مایکروسافت به طور غیرمستقیم نقش خود را با تزریق سریع ایفا می کند، جایی که اجرای دستورات شیطانی ممکن است، و سناریویی مانند آن ممکن است منجر به عواقب امنیتی شدیدی مانند سرقت داده ها و ربودن سیستم شود. به گفته سارا برد، مدیر تولید مایکروسافت برای هوش مصنوعی مسئول، مکانیسمها برای شناسایی و پاسخ به این تهدیدات بینظیر در زمان واقعی کلیدی هستند.
مایکروسافت اضافه می کند که به زودی هشدارهایی بر روی صفحه نمایش کاربر وجود خواهد داشت که به زمانی اشاره می کند که مدلی احتمالاً اطلاعات نادرست یا گمراه کننده را بیان می کند و کاربرپسندی و اعتماد بیشتری را تضمین می کند.
ایجاد اعتماد در ابزارهای هوش مصنوعی
تلاش مایکروسافت بخشی از یک ابتکار بزرگتر است که هدف آن جلب اعتماد مردم به هوش مصنوعی مولد به طور فزاینده ای است که به طور گسترده در خدماتی که مصرف کنندگان فردی و مشتریان شرکتی را هدف قرار می دهد، استفاده می شود. مایکروسافت پس از وقوع این موارد، با یک شانه دندانه ظریف کار کرد که به موجب آن کاربران میتوانستند با چت بات Copilot بازی کنند تا خروجیهای عجیب و غریب یا مضر تولید کنند. این امر در حمایت از نتیجه ای خواهد بود که نیاز به دفاع قوی در برابر تاکتیک های دستکاری ذکر شده را نشان می دهد که احتمالاً با فناوری های هوش مصنوعی و دانش عمومی افزایش می یابد. پیشبینی و سپس کاهش در تشخیص الگوهای حمله است، مانند جایی که مهاجم سؤال را تکرار میکند یا در ایفای نقش از او درخواست میکند.
مایکروسافت بهعنوان بزرگترین سرمایهگذار و شریک استراتژیک OpenAI، مرزهای نحوه ترکیب و ایجاد فناوریهای هوش مصنوعی مولد مسئولانه و ایمن را در پیش میگیرد. هر دو متعهد به استقرار مسئولانه و مدلهای اساسی هوش مصنوعی Generative برای اقدامات ایمنی هستند. اما برد پذیرفت که این مدلهای زبانی بزرگ، حتی با وجود اینکه به عنوان پایهای برای بسیاری از نوآوریهای هوش مصنوعی آینده در نظر گرفته میشوند، ضد دستکاری نیستند.
ساختن بر این پایهها بسیار بیشتر از تکیه بر خود مدلها است. به یک رویکرد جامع برای ایمنی و امنیت هوش مصنوعی نیاز دارد.
مایکروسافت اخیراً از تقویت اقدامات امنیتی برای استودیوی هوش مصنوعی Azure خود برای نشان دادن و تضمین گامهای پیشگیرانهای که برای محافظت از تغییر چشمانداز تهدیدات هوش مصنوعی در حال انجام است، خبر داده است.
تلاش میکند از سوءاستفادههای هوش مصنوعی جلوگیری کند و یکپارچگی و قابلیت اطمینان تعامل هوش مصنوعی را با ترکیب صفحه نمایشها و هشدارهای به موقع حفظ کند.
با تکامل مداوم فناوری هوش مصنوعی و پذیرش آن در بسیاری از موارد زندگی روزمره، زمان آن فرا رسیده است که مایکروسافت و بقیه جامعه هوش مصنوعی یک موضع امنیتی بسیار هوشیار داشته باشند.
منبع: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/