مردم به خروجی های AI منبع باز بهتر از نمایش های تجاری رتبه می دهند

بر اساس یک نظرسنجی در حال انجام از بیش از 100,000 پاسخ دهنده، علاقه مندان به هوش مصنوعی کار با ابزارهای منبع باز را به ابزارهای تجاری اختصاصی ترجیح می دهند.

ظهور Mistral AI’s Mixtral 8x7B، یک مدل منبع باز، تأثیر قابل توجهی در فضای هوش مصنوعی گذاشته است. سبک و قدرتمند، رمزگشایی کنید Mixtral را در بین بهترین LLM های سال 2023 معرفی کرد. Mixtral به دلیل عملکرد قابل توجه خود در تست های معیار مختلف، به ویژه Chatbot Arena، که یک رویکرد انسان محور منحصر به فرد برای ارزیابی LLM ها ارائه می دهد، توجه زیادی را به خود جلب کرده است.

رتبه‌بندی Chatbot Arena، یک فهرست جمع‌سپاری، بیش از 130,000 رای کاربر را برای محاسبه رتبه‌بندی Elo برای مدل‌های هوش مصنوعی به کار می‌گیرد. در مقایسه با روش‌های دیگری که سعی می‌کنند نتایج را استاندارد کنند تا عینی‌تر باشند، این عرصه رویکرد «انسانی‌تر» را انتخاب می‌کند و از مردم می‌خواهد بین دو پاسخ ارائه‌شده توسط LLMS ناشناس کورکورانه یکی را انتخاب کنند. این پاسخ ها ممکن است با استانداردهای خاصی غیر متعارف به نظر برسند، اما می توانند به طور شهودی توسط کاربران واقعی انسان ارزیابی شوند.

Mixtral جایگاهی چشمگیر دارد و از غول‌های صنعتی مانند Claude 2.1 Anthropíc، GPT-3.5 OpenAI که نسخه رایگان ChatGPT و Google's Gemini را قدرت می‌دهد، یک LLM چندوجهی که به عنوان قدرتمندترین ربات چت برای به چالش کشیدن سلطه GPT-4 فروخته شد، پیشی می‌گیرد.

رتبه بندی Chatbot Arena. Mistral AI’s LLM در رتبه 6 این لیست قرار دارد. تصویر: صورت در آغوش گرفته
رتبه بندی Chatbot Arena. Mistral AI’s LLM در رتبه 6 این لیست قرار دارد. تصویر: صورت در آغوش گرفته

یکی از تمایزهای قابل توجه Mixtral این است که تنها LLM منبع باز در Chatbot Arena 10 برتر است. این تمایز فقط یک موضوع رتبه بندی نیست. این نشان دهنده یک تغییر قابل توجه در صنعت هوش مصنوعی به سمت مدل های در دسترس تر و جامعه محور است. همانطور که توسط رمزگشایی کنیدMistral AI گفت که مدل آن "در اکثر معیارها با 2 برابر استنتاج سریعتر از LlaMA 70 6B بهتر عمل می کند و در اکثر معیارهای استاندارد با GPT 3.5 مطابقت دارد یا بهتر است." مانند MMLU، Arc-C یا GSM.

راز موفقیت Mixtral در معماری «مخلوط کارشناسان» (MoE) آن نهفته است. این تکنیک از چندین مدل متخصص مجازی استفاده می کند که هر کدام در یک موضوع یا زمینه مجزا تخصص دارند. وقتی میکسترال با مشکلی مواجه می‌شود، مرتبط‌ترین کارشناسان را از مجموعه خود انتخاب می‌کند که منجر به خروجی‌های دقیق‌تر و کارآمدتر می‌شود.

میسترال در مقاله اخیراً منتشر شده LLM توضیح داد: «در هر لایه، برای هر توکن، یک شبکه روتر دو گروه از این گروه‌ها («متخصصان») را برای پردازش توکن و ترکیب خروجی‌های آن‌ها به صورت افزودنی انتخاب می‌کند. این تکنیک ضمن کنترل هزینه و تأخیر، تعداد پارامترهای یک مدل را افزایش می‌دهد، زیرا مدل تنها از کسری از کل مجموعه پارامترها در هر توکن استفاده می‌کند.

علاوه بر این، Mixtral به دلیل مهارت چند زبانه خود متمایز است. این مدل در زبان هایی مانند فرانسوی، آلمانی، اسپانیایی، ایتالیایی و انگلیسی برتری دارد و تطبیق پذیری و پتانسیل گسترده خود را به نمایش می گذارد. ماهیت منبع باز آن، تحت مجوز Apache 2.0، به توسعه دهندگان این امکان را می دهد تا آزادانه مدل را کاوش، اصلاح و ارتقا دهند و یک محیط مشارکتی و نوآورانه را تقویت کنند.

موفقیت Mixtral به وضوح فقط به مهارت فنی مربوط نمی شود. این یک پیروزی کوچک اما مهم برای جامعه AI منبع باز است. شاید در آینده‌ای نه چندان دور، این سوال این نباشد که کدام مدل اول بوده است، یا کدام یک پارامترها یا قابلیت‌های زمینه بیشتری دارد، اما کدام یک واقعاً در بین مردم طنین‌انداز است.

ویرایش شده توسط رایان اوزاوا.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

منبع: https://decrypt.co/212236/people-rank-open-source-ai-output-better-than-commercial-plays