48 lines
		
	
	
		
			3.4 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
			
		
		
	
	
			48 lines
		
	
	
		
			3.4 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
| ---
 | |
| title: Backpropagation
 | |
| localeTitle: العكسي
 | |
| ---
 | |
| ## العكسي
 | |
| 
 | |
| Backprogapation هو موضوع فرعي [للشبكات العصبية](../neural-networks/index.md) ، وهي العملية التي بواسطتها تقوم بحساب تدرجات كل عقدة في الشبكة. تقيس هذه التدرجات "الخطأ" الذي تسهم به كل عقدة في طبقة الخرج ، لذلك في تدريب الشبكة العصبية ، يتم تصغير هذه التدرجات.
 | |
| 
 | |
| ملاحظة: يتطلب التكاثر العكسي ، والتعلم الآلي بشكل عام ، معرفة كبيرة بالجبر الخطي والتلاعب بالمصفوفة. ينصح بشدة الدورات الدراسية أو القراءة في هذا الموضوع قبل محاولة فهم محتويات هذه المقالة.
 | |
| 
 | |
| ### حساب
 | |
| 
 | |
| يمكن تفسير عملية backpropagation في ثلاث خطوات.
 | |
| 
 | |
| وبالنظر إلى ما يلي
 | |
| 
 | |
| *   أمثلة تدريب m (x، y) على شبكة عصبية من الطبقات L
 | |
| *   g = وظيفة السيني
 | |
| *   ثيتا (ط) = مصفوفة الانتقال من إيث إلى طبقة i + 1th
 | |
| *   a (l) = g (z (l))؛ صفيف من قيم العقد في الطبقة l استناداً إلى مثال تدريب واحد
 | |
| *   z (l) = Theta (l-1) a (l-1)
 | |
| *   دلتا مجموعة من L matricies تمثل التحولات بين طبقة i و i + 1th
 | |
| *   d (l) = مصفوفة التدرجات للطبقة l من أجل مثال تدريب واحد
 | |
| *   D مجموعة من matricies L مع التدرجات النهائية لكل عقدة
 | |
| *   lambda مصطلح regualrization للشبكة
 | |
| 
 | |
| في هذه الحالة ، بالنسبة للمصفوفة M ، سوف تشير M إلى تحويل المصفوفة M
 | |
| 
 | |
| 1.  تعيين كافة إدخالات Delta (i) ، لـ i من 1 إلى L ، صفر.
 | |
| 2.  لكل مثال تدريب t من 1 إلى m ، قم بإجراء ما يلي:
 | |
| 
 | |
| *   إجراء الانتشار إلى الأمام على كل مثال لحساب (l) و z (l) لكل طبقة
 | |
| *   الحوسبة d (L) = a (L) - y (t)
 | |
| *   compute d (l) = (Theta (l) '• d (l + 1)) • g (z (l)) لـ l من L-1 إلى 1
 | |
| *   زيادة دلتا (l) بواسطة دلتا (l + 1) • a (l) '
 | |
| 
 | |
| 1.  سد Matrichies دلتا في matricies المشتقة الجزئية لدينا D (l) = 1 \\ m (Delta (l) + lambda • Theta (l))؛ إذا ل ل ≠ 0 D (l) = 1 \\ m • Delta (l)؛ إذا ل = 0
 | |
| 
 | |
| وبالطبع ، فإن مجرد رؤية هذه المقالة تبدو معقدة بشكل كبير ويجب ألا يتم فهمها إلا في السياقات الأكبر للشبكات العصبية والتعلم الآلي. يرجى الاطلاع على المراجع المتوقفة لفهم أفضل للموضوع ككل.
 | |
| 
 | |
| #### معلومات اكثر:
 | |
| 
 | |
| *   [محاضرة 4 CS231n مقدمة في الشبكات العصبية](https://youtu.be/d14TUNcbn1k?t=354)
 | |
| *   [سراج رافال - العودة في 5 دقائق](https://www.youtube.com/watch?v=q555kfIFUCM)
 | |
| *   [أندرو نغ ML ML](https://www.coursera.org/learn/machine-learning/)
 | |
| *   [في العمق ، مقالة نمط ويكي](https://brilliant.org/wiki/backpropagation/)
 | |
| *   [Backprop على ويكيبيديا](https://en.wikipedia.org/wiki/Backpropagation)
 | |
| *   [وهناك خطوة خطوة على سبيل المثال Backpropagation](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/) |