واحد بازگشتی دروازهای
واحدهای بازگشتی دروازهای (GRUs) یک مکانیسم دروازهای در شبکههای عصبی بازگشتی هستند که در سال ۲۰۱۴ توسط کیونگهیون چو و همکارانش ایجاد شدند.[۱] واحد بازگشتی دروازهای مانند یک حافظه طولانی کوتاه مدت (LSTM) با یک دروازه فراموشی کار میکند،[۲] اما پارامترهای کمتری نسبت به LSTM دارد، زیرا فاقد دروازه خروجی است.[۳] عملکرد GRU در برخی از وظایف مانند مدلسازی موسیقی چندصدایی، مدلسازی سیگنال گفتار و پردازش زبان طبیعی مشابه عملکرد LSTM است.[۴][۵] GRUها عملکرد بهتری در مجموعه دادههای کوچکتر و دادههای کمبسامد دارند.[۶]
معماری
[ویرایش]تغییرات مختلفی در واحد دروازه کامل وجود دارد، با استفاده از حالت مخفی قبلی و بایاس در ترکیبهای مختلف، و یک شکل ساده به نام واحد حداقل دروازهای.
اپراتور محصول هادامارد را در زیر نشان میدهد.
واحد تمام دروازهای
[ویرایش]![](http://upload.wikimedia.org/wikipedia/commons/thumb/3/37/Gated_Recurrent_Unit%2C_base_type.svg/220px-Gated_Recurrent_Unit%2C_base_type.svg.png)
در ابتدا، برای ، بردار خروجی عبارت است از .
متغیرها
[ویرایش]- : بردار ورودی
- : بردار خروجی
- : بردار فعالسازی
- : بردار به روز رسانی
- : بردار ریست
- ، و : ماتریس پارامتر و بردار
توابع فعال سازی
[ویرایش]![](http://upload.wikimedia.org/wikipedia/commons/thumb/a/ac/Gated_Recurrent_Unit%2C_type_1.svg/220px-Gated_Recurrent_Unit%2C_type_1.svg.png)
- : تابع سیگموئید.
- : تابع هذلولی.
از سایر توابع فعالسازی نیز میتوان استفاده کرد مشروط بر اینکه .
![](http://upload.wikimedia.org/wikipedia/commons/thumb/b/bf/Gated_Recurrent_Unit%2C_type_2.svg/220px-Gated_Recurrent_Unit%2C_type_2.svg.png)
![](http://upload.wikimedia.org/wikipedia/commons/thumb/b/ba/Gated_Recurrent_Unit%2C_type_3.svg/220px-Gated_Recurrent_Unit%2C_type_3.svg.png)
با تغییر و میتوان شکلهای دیگری از مدل را ایجاد کرد:[۷]
- نوع اول، هر دروازه فقط به حالت پنهان قبلی و b بستگی دارد.
- نوع دوم، هر دروازه فقط به حالت پنهان قبلی بستگی دارد.
- نوع سوم، هر دروازه فقط با استفاده از b محاسبه میشود.
واحد حداقل دروازهای
[ویرایش]واحد حداقل دروازهای مشابه واحد تمام دروازهای است، به جز اینکه بردار به روز رسانی و ریست در یک دروازه فراموشی ادغام شدهاست.[۸]
متغیرها
[ویرایش]- : بردار ورودی
- : بردار خروجی
- : بردار فعال سازی
- : بردار فراموشی
- ، و : ماتریسهای پارامتر و بردار
واحد تکراری تطبیقی محتوا
[ویرایش]![](http://upload.wikimedia.org/wikipedia/commons/thumb/e/eb/Content-Adaptive_Recurrent_Unit-new.svg/435px-Content-Adaptive_Recurrent_Unit-new.svg.png)
واحد تکراری تطبیقی محتوا یا Content Adaptive Recurrent Unit (CARU) گونهای از GRU است که در سال ۲۰۲۰ توسط کاهو چان و همکاران وی ایجاد شد.[۹] CARU شامل گیت به روز رسانی مانند GRU است، اما به جای گیت ریست، یک گیت تطبیقی با محتوا معرفی میکند. CARU برای کاهش مشکل وابستگی طولانی مدت مدلهای RNN طراحی شدهاست. CARU پارامترهای کمتری نسبت به GRU دارد و در مسائل پردازش زبانهای طبیعی عملکردش تنها قدری بهتر از GRU است.[۱۰]
در معادلات زیر، متغیرهای حروف کوچک نشان دهنده بردارها و پارامترهای مدل را نشان میدهد که لایههای خطی هستند که از وزنها و بایاسها تشکیل شدهاند. در ابتدا، برای ، CARU مستقیماً بردارد را برمیگرداند؛ برای خروجیها عبارتند از:
در اینجا اپراتور نشان دهنده ضرب هادامارد است، و و به ترتیب نشاندهنده تابع سیگموئید و هذلولی است.
پیوند به بیرون
[ویرایش]منابع
[ویرایش]- ↑ Cho, Kyunghyun; van Merrienboer, Bart; Bahdanau, DZmitry; Bengio, Yoshua (2014). "On the Properties of Neural Machine Translation: Encoder-Decoder Approaches". arXiv:1409.1259.
{{cite journal}}
: Cite journal requires|journal=
(help) - ↑ Felix Gers; Jürgen Schmidhuber; Fred Cummins (1999). "Learning to Forget: Continual Prediction with LSTM". Proc. ICANN'99, IEE, London. 1999: 850–855. doi:10.1049/cp:19991218. ISBN 0-85296-721-7.
- ↑ "Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML". 2015-10-27. Archived from the original on 2021-11-10. Retrieved May 18, 2016.
- ↑ Ravanelli, Mirco; Brakel, Philemon; Omologo, Maurizio; Bengio, Yoshua (2018). "Light Gated Recurrent Units for Speech Recognition". IEEE Transactions on Emerging Topics in Computational Intelligence. 2 (2): 92–102. arXiv:1803.10225. doi:10.1109/TETCI.2017.2762739.
- ↑ Su, Yuahang; Kuo, Jay (2019). "On extended long short-term memory and dependent bidirectional recurrent neural network". Neurocomputing. 356: 151–161. arXiv:1803.01686. doi:10.1016/j.neucom.2019.04.044.
- ↑ Gruber, N.; Jockisch, A. (2020), "Are GRU cells more specific and LSTM cells more sensitive in motive classification of text?", Frontiers in Artificial Intelligence, 3: 40, doi:10.3389/frai.2020.00040
- ↑ Dey. "Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks". arXiv:1701.05923.
- ↑ Heck. "Simplified Minimal Gated Unit Variations for Recurrent Neural Networks". arXiv:1701.03452.
- ↑ Chan, Ka-Hou; Ke, Wei; Im, Sio-Kei (2020), Yang, Haiqin; Pasupa, Kitsuchart; Leung, Andrew Chi-Sing; Kwok, James T. (eds.), "CARU: A Content-Adaptive Recurrent Unit for the Transition of Hidden State in NLP", Neural Information Processing (به انگلیسی), Cham: Springer International Publishing, 12532: 693–703, doi:10.1007/978-3-030-63830-6_58, ISBN 978-3-030-63829-0, retrieved 2022-02-18
- ↑ Ke, Wei; Chan, Ka-Hou (2021-11-30). "A Multilayer CARU Framework to Obtain Probability Distribution for Paragraph-Based Sentiment Analysis". Applied Sciences (به انگلیسی). 11 (23): 11344. doi:10.3390/app112311344. ISSN 2076-3417.