Skip Navigation Linksلیست مقالات ترجمه شده / مقالات ترجمه شده مهندسی كامپيوتر /

عنوان ترجمه شده مقاله: SNAP: یک پردازشگر شتاب دهنده عصبی تُنُک کارآمد برای استنتاج شبکه عصبی عمیق تُنُک ساختار نیافته

توسعه های اخیر در هرس کردن شبکه های عصبی عمیق (DNN) منجر به معرفی تُنُکی داده برای امکان پذیر کردن کاربردهای یادگیری عمیق می شود تا به صورت کارآمدتر بر روی پلت فرم های سخت افزاری دارای منابع و انرژی محدود اجرا شوند.

چکیده

 توسعه­ های اخیر در هرس کردن شبکه های عصبی عمیق (DNN) منجر به معرفی تُنُکی داده برای امکان پذیر کردن کاربردهای یادگیری عمیق می­شود تا به صورت کارآمدتر بر روی پلت فرم­های سخت افزاری دارای منابع و انرژی محدود اجرا شوند. با این حال، این مدل­های تُنُک نیاز به ساختارهای ساخت افزاری مخصوص دارند تا از تُنُکی تا حد امکان برای بهبود ذخیره سازی، تأخیر و راندمان استفاده کنند. در این کار، پردازشگر شتاب دهنده عصبی تنک (SNAP) را جهت بهره برداری از تنکی ساختار نیافته در شبکه­ های عصبی عمیق ارائه می­ کنیم. پردازشگر شتاب دهنده عصبی تُنُک از جستجوی انجمنی موازی استفاده می­کند تا  جفت­ داده­ های معتبر وزن (W) و فعال سازی ورودی (IA) را از آرایه­­­ داده ­های IA و W که تُنُک، ساختار نیافته و فشرده هستند؛ کشف کنند. جستجوی انجمنی به معماری SNAP امکان می­دهد تا به طور متوسط، بهره مندی محاسباتی 75% را حفظ کند. معماری SNAP یک جریان داده کانال-اول را دنبال می­کند و از جریان داده ساده سازی دو سطحی جمع جزئی (psum) استفاده می­کند تا رقابت در دسترسی را در بافر خروجی حذف کند و ترافیک بازنویسی جمع جزئی را در مقایسه با جدیدترین طرح­ های شتاب دهنده DNN تا 22 برابر کاهش دهد. جریان داده ساده سازی جمع جزئی SNAP می­تواند در دو مد پیکربندی شود تا از لایه­ های کانولوشن عمومی (CONV)، کانولوشن نقطه ­ای، و اتصال کامل پشتیبانی کند. یک تراشه SNAP نمونه در تکنولوژی 16-nm CMOS پیاده سازی شده است. این تراشه آزمایشی دارای مساحت 2.3mm2 است و حداکثر راندمان موثر آن در ولتاژ V 0.55 و فرکانس MHz 260 برای لایه­ های کانولوشن با چگالی های وزن و فعال سازی معادل با 10% برابر با TOPS/W 21.55 اندازه گیری شده است. این تراشه آزمایشی با عملکرد بر روی یک شبکه ResNet-50 هرس شده به ماکزیمم توان عملیاتی 90.98 فریم/ثانیه در ولتاژ V0.80 و فرکانس MHz480 دست می­یابد، که mW348 را تلف می­کند.

1-مقدمه

یادگیری عمیق یا به طور دقیق تر، شبکه ­های عصبی عمیق (DNN) به عنوان یک رویکرد کلیدی برای حل مسائل یادگیری و شناختی پیچیده ظهور کرده ­اند [1،2]. جدیدترین شبکه­  های عصبی عمیق [3-9] به بیلیون­ ها عملیات و صدها مگابایت حافظه برای ذخیره کردن فعال سازی­ ها و وزن­ ها نیاز دارند.... 

موسسه ترجمه البرز اقدام به ترجمه مقاله " مهندسی فناوری اطلاعات " با موضوع " SNAP: یک پردازشگر شتاب دهنده عصبی تُنُک کارآمد برای استنتاج شبکه عصبی عمیق تُنُک ساختار نیافته " نموده است که شما کاربر عزیز می توانید پس از دانلود رایگان مقاله انگلیسی و مطالعه ترجمه چکیده و بخشی از مقدمه مقاله، ترجمه کامل مقاله را خریداری نمایید.
عنوان ترجمه فارسی
SNAP: یک پردازشگر شتاب دهنده عصبی تُنُک کارآمد برای استنتاج شبکه عصبی عمیق تُنُک ساختار نیافته
نویسنده/ناشر/نام مجله :
IEEE JOURNAL OF SOLID-STATE CIRCUITS
سال انتشار
2021
کد محصول
1016084
تعداد صفحات انگليسی
12
تعداد صفحات فارسی
28
قیمت بر حسب ریال
1,314,500
نوع فایل های ضمیمه
pdf+word
حجم فایل
10 مگا بایت
تصویر پیش فرض


این مقاله ترجمه شده را با دوستان خود به اشتراک بگذارید
سایر مقالات ترجمه شده مهندسی فناوری اطلاعات , مهندسی كامپيوتر را مشاهده کنید.
کاربر عزیز، بلافاصله پس از خرید مقاله ترجمه شده مقاله ترجمه شده و با یک کلیک می توانید مقاله ترجمه شده خود را دانلود نمایید. مقاله ترجمه شده خوداقدام نمایید.
جهت خرید لینک دانلود ترجمه فارسی کلیک کنید
جستجوی پیشرفته مقالات ترجمه شده
برای کسب اطلاعات بیشتر، راهنمای فرایند خرید و دانلود محتوا را ببینید
هزینه این مقاله ترجمه شده 1314500 ریال بوده که در مقایسه با هزینه ترجمه مجدد آن بسیار ناچیز است.
اگر امکان دانلود از لینک دانلود مستقیم به هر دلیل برای شما میسر نبود، کد دانلودی که از طریق ایمیل و پیامک برای شما ارسال می شود را در کادر زیر وارد نمایید


این مقاله ترجمه شده مهندسی فناوری اطلاعات در زمینه کلمات کلیدی زیر است:





Channel index matching
deep neural network (DNN)
energy-efficient accelerator
sparse neural netw

تاریخ انتشار در سایت: 2023-07-13
جستجوی پیشرفته مقالات ترجمه شده
نظرتان در مورد این مقاله ترجمه شده چیست؟

ثبت سفارش جدید