NTT و دانشگاه توکیو اولین هوش مصنوعی رایانش نوری جهان را با استفاده از الگوریتمی الهام گرفته از مغز انسان توسعه دادند.

همکاری، کاربرد عملی هوش مصنوعی کم مصرف و پرسرعت مبتنی بر محاسبات نوری را پیش می‌برد.

توکیو – (بیزینس سیم)–#TechforGood-شرکت NTT (رئیس و مدیر عامل: آکیرا شیمادا، "NTT") و دانشگاه توکیو (Bunkyo-ku، توکیو، رئیس: Teruo Fujii) یک الگوریتم یادگیری جدید با الهام از پردازش اطلاعات مغز ابداع کرده اند که برای شبکه های عصبی مصنوعی چند لایه (DNN) با استفاده از عملیات آنالوگ مناسب است. این پیشرفت منجر به کاهش مصرف انرژی و زمان محاسبه برای هوش مصنوعی خواهد شد. نتایج این پیشرفت در مجله علمی بریتانیا منتشر شد طبیعت ارتباطات در 26 دسامبرth.


محققان با اعمال الگوریتم بر روی یک DNN که از محاسبات آنالوگ نوری استفاده می کند، به اولین نمایش در جهان از یادگیری DNN نوری با کارآمدی دست یافتند که انتظار می رود دستگاه های یادگیری ماشینی با سرعت بالا و کم مصرف را فعال کند. علاوه بر این، آنها به بالاترین عملکرد جهان از یک شبکه عصبی مصنوعی چند لایه که از عملیات آنالوگ استفاده می کند، دست یافته اند.

در گذشته محاسبات یادگیری با بار بالا توسط محاسبات دیجیتال انجام می شد، اما این نتیجه ثابت می کند که می توان با استفاده از محاسبات آنالوگ، کارایی قسمت یادگیری را بهبود بخشید. در فناوری شبکه عصبی عمیق (DNN)، یک شبکه عصبی بازگشتی به نام محاسبات مخزن عمیق با فرض یک پالس نوری به عنوان یک نورون و یک حلقه نوری غیرخطی به عنوان یک شبکه عصبی با اتصالات بازگشتی محاسبه می‌شود. با وارد کردن مجدد سیگنال خروجی به همان مدار نوری، شبکه به طور مصنوعی عمیق تر می شود.

فناوری DNN هوش مصنوعی پیشرفته (AI) مانند ترجمه ماشینی، رانندگی مستقل و روباتیک را امکان پذیر می کند. در حال حاضر، توان و زمان محاسبات مورد نیاز با سرعتی در حال افزایش است که از رشد عملکرد کامپیوترهای دیجیتال بیشتر است. فناوری DNN که از محاسبات سیگنال آنالوگ (عملیات آنالوگ) استفاده می کند، انتظار می رود روشی برای تحقق محاسبات با کارایی بالا و سرعت بالا مشابه شبکه عصبی مغز باشد. همکاری بین NTT و دانشگاه توکیو یک الگوریتم جدید مناسب برای عملیات آنالوگ DNN ایجاد کرده است که درک پارامترهای یادگیری موجود در DNN را فرض نمی‌کند.

روش پیشنهادی با تغییر پارامترهای یادگیری بر اساس لایه نهایی شبکه و تبدیل تصادفی غیرخطی خطای سیگنال خروجی مورد نظر (سیگنال خطا) یاد می گیرد. این محاسبه اجرای محاسبات آنالوگ را در مواردی مانند مدارهای نوری آسان می کند. همچنین می‌تواند نه تنها به‌عنوان مدلی برای پیاده‌سازی فیزیکی، بلکه به‌عنوان یک مدل پیشرفته مورد استفاده در برنامه‌هایی مانند ترجمه ماشینی و مدل‌های مختلف هوش مصنوعی، از جمله مدل DNN، مورد استفاده قرار گیرد. انتظار می رود این تحقیق به حل مشکلات نوظهور مرتبط با محاسبات هوش مصنوعی، از جمله مصرف انرژی و افزایش زمان محاسبه کمک کند.

علاوه بر بررسی کاربرد روش پیشنهادی در این مقاله برای مشکلات خاص، NTT همچنین ادغام سخت افزار نوری در مقیاس بزرگ و مقیاس کوچک را با هدف ایجاد یک پلت فرم محاسبات نوری با سرعت بالا و کم مصرف برای اپتیکی آینده ترویج خواهد کرد. شبکه های.

پشتیبانی از این تحقیق:

JST/CREST بخشی از این نتایج تحقیقات را پشتیبانی کرد.

انتشار مجله:

مجله: طبیعت ارتباطات (نسخه آنلاین: 26 دسامبر)

عنوان مقاله: یادگیری عمیق فیزیکی با روش آموزشی الهام گرفته از بیولوژیکی: رویکرد بدون گرادیان برای سخت افزار فیزیکی

نویسندگان: Mitsumasa Nakajima، Katsuma Inoue، Kenji Tanaka، Yasuo Kuniyoshi، Toshikazu Hashimoto و Kohei Nakajima

توضیح اصطلاحات:

  1. مدار نوری: مداری که در آن موجبرهای نوری سیلیکونی یا کوارتز با استفاده از فناوری ساخت مدارهای الکترونیکی بر روی ویفر سیلیکونی ادغام می شوند. در ارتباطات، انشعاب و ادغام مسیرهای ارتباطی نوری با تداخل نوری، مالتی پلکسی طول موج/دی مولتی پلکس و مواردی از این دست انجام می شود.
  2. روش پس انتشار (BP): متداول ترین الگوریتم یادگیری در یادگیری عمیق است. گرادیان وزن ها (پارامترها) در شبکه هنگام انتشار سیگنال خطا به عقب به دست می آید و وزن ها به روز می شوند تا خطا کوچکتر شود. از آنجایی که فرآیند انتشار معکوس نیاز به جابجایی ماتریس وزن مدل شبکه و تمایز غیرخطی دارد، پیاده سازی آن بر روی مدارهای آنالوگ، از جمله مغز یک موجود زنده، دشوار است.
  3. محاسبات آنالوگ: کامپیوتری که مقادیر واقعی را بیان می کند با استفاده از کمیت های فیزیکی مانند شدت و فاز نور و جهت و شدت اسپین های مغناطیسی و انجام محاسبات با تغییر این کمیت های فیزیکی طبق قوانین فیزیک.
  4. روش تراز بازخورد مستقیم (DFA): روشی برای محاسبه شبه سیگنال خطای هر لایه با انجام یک تبدیل تصادفی غیرخطی بر روی سیگنال خطای لایه نهایی. از آنجایی که نیازی به اطلاعات دیفرانسیل مدل شبکه ندارد و تنها با تبدیل تصادفی موازی قابل محاسبه است، با محاسبه آنالوگ سازگار است.
  5. محاسبات مخزن: نوعی شبکه عصبی بازگشتی با اتصالات مکرر در لایه پنهان. مشخصه آن تثبیت تصادفی اتصالات در یک لایه میانی به نام لایه مخزن است. در محاسبات مخزن عمیق، پردازش اطلاعات با اتصال لایه های مخزن در چندین لایه انجام می شود.

NTT و آرم NTT علائم تجاری یا علائم تجاری ثبت شده NIPPON TELEGRAPH AND TELEPHONE CORPORATION و/یا شرکت های وابسته به آن هستند. همه نام‌های دیگر محصولات ارجاع‌شده علائم تجاری صاحبان مربوطه هستند. © 2023 NIPPON Telegraph and TELEPHONE CORPORATION

اطلاعات تماس

استیون راسل

ارتباطات وایرساید®

برای NTT

+ 1-804-362-7484

[ایمیل محافظت شده]

منبع: https://thenewscrypto.com/ntt-and-the-university-of-tokyo-develop-worlds-first-optical-computing-ai-using-an-algorithm-inspired-by-the-human-brain/