Skip Navigation Linksلیست مقالات ترجمه شده / خرید و دانلود
1,314,500

پیش از اقدام به خرید ترجمه فارسی می توایند نسخه انگلیسی را به صورت رایگان دانلود و بررسی نمایید. متن چکیده و ترجمه آن در پایین همین صفحه قابل مشاهده است.
دانلود رایگان مقاله انگلیسی
موسسه ترجمه البرز اقدام به ترجمه مقاله " مهندسی فناوری اطلاعات " با موضوع " SNAP: یک پردازشگر شتاب دهنده عصبی تُنُک کارآمد برای استنتاج شبکه عصبی عمیق تُنُک ساختار نیافته " نموده است که شما کاربر عزیز می توانید پس از دانلود رایگان مقاله انگلیسی و مطالعه ترجمه چکیده و بخشی از مقدمه مقاله، ترجمه کامل مقاله را خریداری نمایید.
عنوان ترجمه فارسی
SNAP: یک پردازشگر شتاب دهنده عصبی تُنُک کارآمد برای استنتاج شبکه عصبی عمیق تُنُک ساختار نیافته
نویسنده/ناشر/نام مجله :
IEEE JOURNAL OF SOLID-STATE CIRCUITS
سال انتشار
2021
کد محصول
1016084
تعداد صفحات انگليسی
12
تعداد صفحات فارسی
28
قیمت بر حسب ریال
1,314,500
نوع فایل های ضمیمه
pdf+word
حجم فایل
10 مگا بایت
تصویر پیش فرض



چکیده

 توسعه­ های اخیر در هرس کردن شبکه های عصبی عمیق (DNN) منجر به معرفی تُنُکی داده برای امکان پذیر کردن کاربردهای یادگیری عمیق می­شود تا به صورت کارآمدتر بر روی پلت فرم­های سخت افزاری دارای منابع و انرژی محدود اجرا شوند. با این حال، این مدل­های تُنُک نیاز به ساختارهای ساخت افزاری مخصوص دارند تا از تُنُکی تا حد امکان برای بهبود ذخیره سازی، تأخیر و راندمان استفاده کنند. در این کار، پردازشگر شتاب دهنده عصبی تنک (SNAP) را جهت بهره برداری از تنکی ساختار نیافته در شبکه­ های عصبی عمیق ارائه می­ کنیم. پردازشگر شتاب دهنده عصبی تُنُک از جستجوی انجمنی موازی استفاده می­کند تا  جفت­ داده­ های معتبر وزن (W) و فعال سازی ورودی (IA) را از آرایه­­­ داده ­های IA و W که تُنُک، ساختار نیافته و فشرده هستند؛ کشف کنند. جستجوی انجمنی به معماری SNAP امکان می­دهد تا به طور متوسط، بهره مندی محاسباتی 75% را حفظ کند. معماری SNAP یک جریان داده کانال-اول را دنبال می­کند و از جریان داده ساده سازی دو سطحی جمع جزئی (psum) استفاده می­کند تا رقابت در دسترسی را در بافر خروجی حذف کند و ترافیک بازنویسی جمع جزئی را در مقایسه با جدیدترین طرح­ های شتاب دهنده DNN تا 22 برابر کاهش دهد. جریان داده ساده سازی جمع جزئی SNAP می­تواند در دو مد پیکربندی شود تا از لایه­ های کانولوشن عمومی (CONV)، کانولوشن نقطه ­ای، و اتصال کامل پشتیبانی کند. یک تراشه SNAP نمونه در تکنولوژی 16-nm CMOS پیاده سازی شده است. این تراشه آزمایشی دارای مساحت 2.3mm2 است و حداکثر راندمان موثر آن در ولتاژ V 0.55 و فرکانس MHz 260 برای لایه­ های کانولوشن با چگالی های وزن و فعال سازی معادل با 10% برابر با TOPS/W 21.55 اندازه گیری شده است. این تراشه آزمایشی با عملکرد بر روی یک شبکه ResNet-50 هرس شده به ماکزیمم توان عملیاتی 90.98 فریم/ثانیه در ولتاژ V0.80 و فرکانس MHz480 دست می­یابد، که mW348 را تلف می­کند.

1-مقدمه

یادگیری عمیق یا به طور دقیق تر، شبکه ­های عصبی عمیق (DNN) به عنوان یک رویکرد کلیدی برای حل مسائل یادگیری و شناختی پیچیده ظهور کرده ­اند [1،2]. جدیدترین شبکه­  های عصبی عمیق [3-9] به بیلیون­ ها عملیات و صدها مگابایت حافظه برای ذخیره کردن فعال سازی­ ها و وزن­ ها نیاز دارند.... 


این مقاله ترجمه شده مهندسی فناوری اطلاعات در زمینه کلمات کلیدی زیر است:





Channel index matching
deep neural network (DNN)
energy-efficient accelerator
sparse neural netw

ثبت سفارش جدید