یکسوساز (شبکه عصبی)
در چاچوب شبکه عصبی مصنوعی، یکسوساز یک تابع فعالسازی که به صورت
تعریف شده که در آن x ورودی یک نورون است. این تابع به تابع شیب نیز شناخته میشود و قابل مقایسه با یکسوساز نیمموج در مهندسی برق است. در سال 2000 در مقالهای در نیچر این تابع فعالسازی با انگیزههای زیستشناسی و توجیه ریاضی قوی توسط هانلوزر و همکاران ارائه شد. این تابع در شبکههای عصبی پیچشی به صورت بهینهتری نسبت به تابع لجستیک سیگموئید (که بر اساس نظریه احتمالات الهام گرفته شدهاست. برای اطلاعات بیشتر به رگرسیون لجستیک مراجعه شود) و تابع مشابه ولی کاربردیتر تانژانت هذلولوی استفاده شدهاست. یکسوساز در حال حاضر از پرطرفدارترین توابع فعالسازی برای شبکههای عمیق است.
به واحدی که از تابع یکسوساز استفاده میکند واحد یکسو شدهی خطی(ReLU) نیز میگویند.
واحدهای یکسو شدهی خطی در بینایی کامپیوتر و بازشناسی گفتار توسط شبکههای عمیق کاربرد دارند.
انواع
واحد یکسو شدهی نویز دار
واحدهای یکسو شدهی خطی میتوانند تعمیم داده شوند تا شامل یک نویز گاوسی باشد.
واحدهای یکسو شدهی نویز دار در ماشینهای محدود شدهی بلتزمن با موفقیت نسبی برای وظیفههای بینایی کامپیوتر استفاده شدهاند.
واحد یکسو شدهی بانشت
این واحدها یک شیب نا صفر را در هنگامی که واحد فعال نیست عبور میدهند.
واحد یکسو شدهی پارامتردار این ایده را با در نظر گرفتن ضریب نشت به عنوان یک پارامتر قابل یادگیری همراه بقیهی پارامترهای شبکههای عصبی کاملتر میکنند.
توجه شود که برای
و از این رو با شبکههای مکساوت ربط دارند.
انواع غیر خطی
واحد خطی خطای گاوسی (Gaussian-Error Linear Unit)
واحد خطی خطای گاوسی (GELU) یک واحد تقریب هموارکننده است:
که Φ(x) تابع توزیع تجمیعی برای توزیع نرمال استاندارد است.
واحد خطی سیگموئید (SiLU)
این تابع نیز یک واحد تقریب هموار است:
که sigmoid(x) تابع سیگموئید است.
سافتپلاس
یک تقریب هموار برای یکسوساز تابع تحلیلی زیر است
که به آن سافتپلاس میگویند. مشتق سافتپلاس برابر است با
تعمیم چندمتغیره سافتپلاس، LogSumExp میباشد به شرطی که آرگومان اول آن صفر قرار داده شده باشد.
مشتق تابع LogSumExp، همان بیشینه هموار است؛ بیشینه هموار با آرگومان اول صفر، تعمیم چندمتغیره تابع لجستیک است. هم LogSumExp هم بیشینه هموار در یادگیری ماشین کاربرد دارند.
واحد نمایی خطی (Exponential Linear Unit)
واحدهای نمایی خطی سعی میکنند میانگین فعالبودنها را به صفر نزدیک کنند که باعث سرعت بخشیدن به فرایند یادگیری میشود. نشان داده شده که واحدهای نمایی خطی میتوانند دقت دستهبندی بالاتری را نسبت به واحدهای یکسوسازی خطی به دست آورند.
در این معادله، a یک ابرپارامتر قابل یادگیری به شرط
Mish
این تابع نیز یک تقریب هموار برای یکسوساز است که به صورت زیر تعریف میشود:
که از سافتپلاس و تانژانت هایپربولیک تشکیل شده است.
برتریها
- همخوانی با زیستشناسی:یک طرفه، درمقایسهی با تابع پادمتقارن تانژانت هذلولولی
- فعال بودن پراکنده: برای مثال، در یک شبکهی راهاندازی شده به صورت تصادفی تنها 50% واحدهای پنهان فعالیت دارند(خروجی غیر صفر دارند).
- انتشار مشتق بهینه: عدم وجود مشکل گرادیان محو شونده.
- محاسبهی سریع: تنها مقایسه، جمع و ضرب.
- مستقل از مقیاس:
برای اولین بار در 2011، نشان داده شد استفادهی یکسوساز به عنوان یک مؤلفهی غیرخطی اجازه میدهد که شبکههای عمیق با نظارت بدون نیاز به پیشتعلیم بینظارت تعلیم داده شوند. واحدهای یکسوسازی شدهی خطی درمقایسه با تابع سیگموئید یا توابع فعالسازی مشابه، تعلیم سریعتر و بهینهتر معماریهای عمیق را بر روی مجموعهدادههای بزرگ و پیچیده اجازه میدهند.
مشکلات احتمالی
- مشتقناپذیر در صفر: گرچه در هر نقطهی دیگر مشتقپذیر است، شامل نقاط مخالف ولی نزدیک به صفر.
- مرکز غیر صفر.
- بدون کران.
- مشکل مرگ واحدهای یکسوساز خطی: عصبهای یکسوساز ممکن است به یک وضعیت که در آن به ازای تمام ورودیها غیر فعال باشند سوق داده شوند. در این حالت، هیچ مشتقی به سمت عقب عصب جریان پیدا نمیکند و به همین دلیل عصب به صورت دائم در یک وضعیت غیر فعال گیر میکند و به اصطلاح میمیرد. در بعضی از موارد، تعداد زیادی از عصبها در یک شبکه میتوانند در این وضعیت گیر کنند و به صورتی مؤثری توانایی مدل را کاهش دهند. این مشکل در حالتی که ضریب یادگیری بالا است میتواند رخ دهد. این مشکل میتواند با استفاده از واحدهای یکسو شدهی با نشت به جای واحدهای سده کاهش پیدا کند.
جستارهای وابسته
منابع
- ↑ Brownlee، Jason (۲۰۱۹-۰۱-۰۸). «A Gentle Introduction to the Rectified Linear Unit (ReLU)». MachineLearningMastery.com (به انگلیسی). دریافتشده در ۲۰۲۲-۱۲-۲۹.
- ↑ Ramachandran, Prajit; Zoph, Barret; Le, Quoc V. (2017-10-27). "Searching for Activation Functions". arXiv:1710.05941 [cs].
- ↑ Zeiler, Matthew D.; Ranzato, M.; Monga, R.; Mao, Mark Z.; Yang, K.; Le, Quoc V.; Nguyen, P.; Senior, A.; Vanhoucke, Vincent (2013). "On rectified linear units for speech processing". 2013 IEEE International Conference on Acoustics, Speech and Signal Processing (به انگلیسی).
- ↑ Agarap, Abien Fred (2019-02-07). "Deep Learning using Rectified Linear Units (ReLU)". arXiv:1803.08375 [cs, stat].
- ↑ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2015-02-06). "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification". arXiv:1502.01852 [cs].
- ↑ Hendrycks, Dan; Gimpel, Kevin (2020-07-08). "Gaussian Error Linear Units (GELUs)". arXiv:1606.08415 [cs].
- ↑ Shaw, Sweta (2020-05-10). "Activation Functions Compared With Experiments". W&B (به انگلیسی). Retrieved 2022-12-29.
- ↑ Lu, Lu; Shin, Yeonjong; Su, Yanhui; Karniadakis, George Em (2020-10-21). "Dying ReLU and Initialization: Theory and Numerical Examples". arXiv:1903.06733 [cs, math, stat]. doi:10.4208/cicp.OA-2020-0165.