nuural network in arabic
DESCRIPTION
Arabic description of nueral networksTRANSCRIPT
ABA1
الشبكات العصبية االصطناعية الشبكات العصبية االصطناعية NEURAL NETWORKSNEURAL NETWORKS
عـبـدالنور عـبـدالنور عادل عادل . . ددقسم الهندسة الكهربائية قسم الهندسة الكهربائية
جامعة الملك سعود جامعة الملك سعود
ABA2
الحاسوب من المفارقات التي تدعوا لالندهاش أن سرعة •) 107( مليار مرة 10تفوق سرعة الخلية العصبية بـ
مع هذا ، بإمكان الشخص العادي التعرف على وجه •مألوف في عشر من الثانية مستعمال خاليا عصبية ال
. من الثانية 1/1000تزيد سرعتها على بتأمل هذه األرقام نستنتج أن الحد األقصى للخطوات التي •
بأي حال ) 1000/10( أي 100تتبعها الخاليا ال تزيد عن . من األحوال
ABA3
من الوصول ) بالحاسوب مقارنة (فكيف تتمكن خاليا بطيئة إلى حلول بسرعة عالية ؟
لم يتوصل العلماء إلى تفسير مقنع ومنطقي سواء أن يكون سر قوة هذه الشبكات في طريقة معالجتهـا للبيانـات
)Information Processing (
فهذه الخاليا العصبيـة تعالـج بياناتـها بالتـوازي ) Parallel ( مما يكسبها سرعة فائقة
لقد آانت هذه النتيجة آافية إلغراء الكثير من الباحثين الشبكات العصبية البشرية باستعمال " تقليد " بمحاولة الحاسوب
ABA4
مكونات اخللية العصبية البشرية
ABA5
رغم أن المعلومات عن الخاليا العصبية غير مكتملة وما زلنا نجهل الكثير عنها ، إال أن القليل مما نعرفه آاف
إلقناعنا بتعقيدها الشديد
) 1012( فدماغ اإلنسان العادي يحتوي على ألف مليار خلية عصبية
مشبك مع الخاليا 10000لكل واحدة منها ما يقارب األخرى
فمجرد محاولة تخيل هذه الشبكة العجيبة ليس باألمر السهل
ABA6
الخلية العصبية االصطناعية ) Artificial Neuron (
اتضح أنه باإلمكان تبسيط مكونات الخلية واالآتفاء مبدئيا ببعض وظائفها واستعمال عدد صغير منها ومن ثم تمثيلها
للحصول على خاليا عصبية اصطناعية " رياضيا "
يوضح الشكل التالي أبسط تمثيل للخلية العصبية االصطناعية وهو عبارة عن وحدة معالجة
) Processing Unit ( أطلق عليها اسم المدرك) Perceptron (
ABA7
+
W1
W2
Wn
X1
X2
Xn
.
.
.
YOtherwise
xWIfn
iii∑ >
=1ο
⎪⎩
⎪⎨⎧1
0=
باستعمال هذا التمثيل المبسط ، يمكن لوحدة المدرك أن : معظم العمليات المنطقية آعمليات تنمذج
)OR" (أو ” )AND" ( و ” )NAND" ( و–ال " )NOR" ( أو –ال "
ABA8
للوصول إلى ذلك تحتاج وحدة المدرك إلى تدريب
التدريب هو إعطاء الوحدة بعض المدخالت وبعض المخرجات :المرغوبة لتتمكن من تعديل األوزان حسب القاعدة التالية
Wi new = Wi old + a (O desired – O) xi : حيث
Wi =األوزانO =المخرجxi =المدخلa سرعة التعلم=
ABA9
آمثال على ذلك، لنفترض أننا نود تدريب وحدة المدرك )OR" (أو" العملية المنطقية لنمذجة
لنبـدأ عشوائيا باختيار األوزان لتكون صفرا في البداية 1وتكون قيمة سرعة التعلم
x1 x2 Odesired
0 0 0
0 1 1
1 0 1
1 1 1
∑
W1
W2
x1
x2
O
ABA10
:في هذه حالة يمكن آتابة المعادلة على الشكل التالي
W1 new = W1 old + (O desired – O) x1
W2 new = W2 old + (O desired – O) x2
لمدخالت مع تكرار لتدريب الوحدة ، تطبق المعادلة على آل ا العملية حتى تستقر األوزان عند قيم محددة ال تتغير بعدها
ويوضح الجدول التالي خطوات التدريب
ABA11
x1 x2 W1old W2old Odesired O error W1 new
W2 new
0 0 0 0 0 0 0 0 0
0 1 0 0 1 0 1 0 1
1 0 0 1 1 0 1 1 1
1 1 1 1 1 1 0 1 1
0 0 1 1 0 0 0 1 1
0 1 1 1 1 1 0 1 1
W2: من خالل الجدول نالحظ أن األوزان النهائية هي = 1 = W1
ABA12
في حل هذه المشكالت نجاعةلقد أظهرت وحدة المدرك و ) Classification(البسيطة والتي تعنى بالتصنيف
(Separation)الفصل
هي عبارة عن وضع حد " أو" فعملية بين مجموعتينBoundary فاصل
مفصولتين أصال
وعملية التدريب ال تتعدى البحث عن هذا الخط الفاصل عن طريق
اختيار أوزان الترابط
X2
(0,0) (1,0)X1
1
00
0(0,1)
ABA13
نمذجةهذه الوحدة غير قادرة على XOR" أو المقصورة "عملية
فهذه العملية غير قابلة للفصل
!!!!! الخطي
خيبة امل ؟؟؟؟
X2
(0,0) (1,0)X1
0
10
1(0,1)
ABA14
مواصلة البحث في الميدان توصلت إلى أنه بإمكان فصل عملية
بطريقة ال خطية " أو المقصورة "
من أآثر وبذلك ظهرت فكرة استعمال خلية عصبية واحدة لتكوين شبكة
متكاملة من هذه الخاليا X2
(0,0) (1,0)X1
0
10
1(0,1)
ABA15
بنية الشبكات العصبية االصطناعية استعمال الخلية الواحدة ، ظهرت فكرة نجاعةبعد اآتشاف عدم
استعمال شبكة آاملة من الخاليا العصبية االصطناعية
تم اقتراح أنواع متعددة من هذه الشبكات ، أهمها الشبكات ذات )Feed forward networks(التغذية األمامية
في هذه البنية يسمح لإلشارة بالتنقل فقط إلى األمام من المدخالت إلى المخرجات
فمخرجات أي من الطبقات ال تؤثر إال في الطبقة التي تليها آما ال يوجد أي ترابط بين خاليا الطبقة الواحدة
ABA16
معظم الشبكات التي تتبع هذا النمط تتكون من طبقة المدخالت ) Input Layer ( وطبقة المخرجات)Output Layer (
وهما الطبقتان الوحيدتان اللتان لهما اتصال بالمحيط خارج الشبكة
– على األقـل – إضافة إلى هاتان الطبقتـان تضـم الشبكـة وسميـت آذلك ألنها ال ) Hidden Layer(طبقـة خفيـة
تتصـل بالمحيط خـارج الشبكـة ومرتبطة فقط بالطبقة التي تسبقها والتي تليها
وتتكون آل من هذه الطبقات الثالثة من عدد من الخاليا العصبية والتي يرمز لها بدائرة للتبسيط
ABA17
1
2
3
x1
x2
x3
4
5
6
7
8
W14
W15
W24
W34
W35
W46
W58
O1
O2
O3
W25
W48
W57
W47
W56
المدخالت طبقة الخفيةالطبقة المخرجات طبقة
مثال على الشبكات ذات التغذية األمامية
ABA18
إذا ما أخذنا آل خلية من الشبكة على حدة ، فإن العمليات التي تقوم بها هذه الخلية هي آالتي تقوم بها الوحدة المدرآة والتي
تطرقنا إليها سابقا مع اختالف بسيط ولكنه مهم
" العتبة "ففي الخلية المدرآة آانت المعالجة تتم عن طريق دالة )Threshold ( وهذه الدالة ثنائية القيمة وهذا ال يسمح إال
العمليات الخطية بنمذجه
األنظمة نمذجه لهذا، حتى تتمكن الشبكات العصبية من والمعقدة فالبد من إيجاد دالة أو داالت أخرى الالخطية والعمليات
غير دالة العتبة
ABA19
الشبكات العصبية المراقبةSupervised Neural Networks
تسمى هذه الشبكات بالشبكات العصبية المراقبة ألنها تحتاج أثناء عملية التدريب إلى مراقب ليبين لها المخرج المطلوب
لكل من المدخالت
مع مقارنة المخرج الفعلي مع المخرج المطلوب تحاول لتصل في النهاية إلى ) Weights(الشبكات تحديث األوزان
النتيجة الصحيحة والتي ال تحتاج بعدها ال إلى التدريب وال إلى هذا اإلشراف الخارجي
ABA20
وتتم هذه العملية باستعمال العديد من الطرق والخوارزميات "انتشار الخطأ االرتدادي "أهمها طريقة
)Error Back Propagation (
تبدأ العملية بإيجاد الخطأ بين المخرج المطلوب والفعلي وترجع بهذا الخطأ ارتداديا من الطبقة األخيرة إلى الطبقات
الخفية ثم أخيرا إلى طبقة المدخالت
وفي أثناء هذا االرتداد يتم تغيير األوزان في االتجاه الذي يدفع بالخطأ إلى النقصان ومن ثمة في اتجاه الصفر
ABA21
وتستعمل هذه الطريقة التدريبية مع الشبكات ذات التغذية )Feedforward Networks(األمامية
: حتى ال يقع أي التباس نحتاج إلى توضيح أن وصف
يرجع إلى بنية الشبكة " التغذية األمامية "يرجع إلى طريقة " انتشار الخطأ االرتدادي " و
التدريب التي تستعمل مع هذه الشبكة
ABA22
Activation Functions داالت التنشيط الالخطية المشكالت نمذجةحتى تتمكن الشبكات المراقبة من
والمعقدة البد من تطوير الطريقة التي تعالج بها الخلية البيانات
فعوضا عن دالة العتبة والتي يكون مخرجها واحد أو صفرا تحتاج خاليا هذه الشبكات إلى دالة أآثر مالءمة
:وأهم المواصفات التي يجب توفرها في هذه الدالة هي النمذجة الالخطية أن ال تكون ثنائية القيمة لتكون قادرة على :أوال
وهذا شرط ) Differentiation( أن تكون قابلة للتفاضل :ثانياأساسي تفرضه طريقة االنتشار االرتدادي للتدريب
ABA23
وألهمية هذه الدالة في معالجة البيانات ، سميت بالدالة ) Activation Function ( التفعيليـة التنشيطية أو الدالة
)فعل منع أو تحريض(وصفا لفعل الخلية ) رياضيا (ألنها تمثال
: وتوجد أنواع مختلفة من داالت التنشيط منها وتستعمل عادة في خاليا طبقة المخرجات الدالة الخطية
وتستعمل في الطبقات األخرى السجماوية الدالة
ABA24
السجماوية الدالة الدالة الخطية
½
f (x)
x
xexf −+
=1
1)(
1
f (x)=xf (x)
1x
ABA25
مثالx2 = 0.2
w22=6
x1 = 0.1
w11=3
w12=4w21=5
w10=7
w20=8
x2 = 0.1
w22=6
+
+
+
x1 = 0.1w11=3
w12=4 w21=5
1.62
f
f
/
1.6
1.3
w10=7
w20=8 o=1.622
79.03.11
1=
−+e
83.06.11
1=
−+e
?
ABA26
) Training Algorithm( خوارزمية التدريب
هناك عدد آبير من الخوارزميات أآثرهـا استعمـاال هـي ) Back propagation(خوارزميـات االنتشـار االرتـدادي
هذه الخوارزميات قد تبدو معقدة آما سنرى لكنها في الواقع أسهل .مما تبدو) على مستوى الفهم والبرمجة (بكثير
هي في األصـل اشتقـاقـا مـن العمليـة المعـروفـة والمسـمـــاة ) Least Mean Squares" ( متـوســط المـربعـات األدنــى "
وبالتالي فهي تسعى لتقليل مربع الخطأ عند التدريب
ABA27
سنفترض أن الخاليا العصبية االصطناعية تستعمل الدالة آدالة تنشيط ألنه من السهل جدا اشتقاقها آما السجماوية
: في المعادلة التالية مسوضحهو
[ ])x(f1)x(f
dx)x(df
−= xe1
1)x(−+
=f
:وتتمتع عملية االنتشار االرتدادي بميزات عدة أهمها ضمان الحد األدنى لمتوسط مربع الخطأ
قابليتها للتعامل مع البيانات المشوشة وغير الالخطية وقدرتها على التعامل مع األنظمة والداالت
القابلة للفصل الخطي
ABA28
:وتتكون هذه العملية من ست خطوات أساسية وهي
إعطاء أوزان عشوائية للترابط بين خاليا الشبكة
مد الشبكة بإحدى المدخالت المعدة للتدريب
تطبيق عملية االنتشار األمامي لتحديد مخرجات الشبكة
مقارنة المخرجات الفعلية مع المخرجات المطلوبة وتحديد قيمة الخطأ
التراجع بالخطأ عبر الشبكة وتصحيح األوزان في االتجاه الذي يضمن االنتشار االرتدادي تصغير قيمة الخطأ ومن هنا جاءت تسمية
تصغير إجمالي الخطأ لكل المدخالت المستعملة في التدريب
ABA29
المخرج النهائي المطلوب : t (Target)مثالO (Output) : مخرج أي خلية عصبية f (Activ. Func.) : دالة التنشيط η (Learning Rate) : سرعة التعلمW (Weight) : الوزن أو قوة الترابط δ (Error signal) : الخطأ
) Subscripts(بعض هذه الرموز ستحمل رموزا سفلية دليليه . حسب الطبقة التي تنتمي إليها الخلية العصبية
ABA30
i j kwij wjk
Okojoi..
.
.
.
.
.
.
الرموز المستعملة في تدريب شبكة ذات ثالث طبقات
ABA31
:الخطوة األولى تبدأ هذه الخطوة عند طبقة المخرجات وفيها نحدد مجموع
: اإلشارات التي تدخل على آل من خالياها
∑=j
jOjkWkN
بعد مرور هذه القيمة على الخلية والممثلة في الدالة التنشيطية : يكون مخرج آل خلية في طبقة المخرجات السجماوية
)kN(1
1kO f=
−+=
kNe
ABA32
: الخطوة الثانية :على النحو التالي ) δ( مقدار الخطأ ديد في هذه الخطوة يتم تح
:و يمكن تبسيـط المعادلة لتصبح
وبالحصول على هذه القيمة يمكن أن نصحح آل األوزان التي تربط الطبقة على . ηالخفية بطبقة المخرجات وبالسرعة المطلوبة حسب سرعة التعلم
:النحو التالي
)kN()kOkt(k'f−=δ
)kO1(kO)kOkt(k −−=δ
jWW Οδ+← kηjkjk
ABA33
: الخطوة الثالثة وصلنا للخاليا العصبية في الطبقة الخفية لنعيد تقريبا نفس :العمليات السابقة وأولها تحديد قيمة الخطأ في هذه الطبقة
بالتالي يتم تحديد األوزان الجديدة بين طبقة المدخالت والطبقة : الخفية باستعمال
ويتم تطبيق هذه الخطوات على آل المدخالت المعدة للتدريب ولمرات عديدة حتى تصل الشبكة إلى أقل نسبة خطأ ممكنة
وعندها وتصبح الشبكة جاهزة لالستعمال
( ) ∑ δ−Ο=δk
kjkWjO1jj
ijijWijW Οδ+← η
ABA34
مثال على تدريب الشبكات
يكون االنطباع األولي عن عملية تدريب الشبكات بأنها عملية صعبة ومعقدة
لهذا سنحاول من خالل مثال مبسط توضيح أنها ليست بالصعوبة التي يظنها الكثير
فقط لتسهيل العمليات 1 لتكون η سنختـار سرعة التدريب الحسابية
ABA35
x2 W22
x1W11
W12 W21h1
h2
Input Layer( i )
Output (O)
Hidden( h )
W10
W20
الشبكة المعدة للتدريب
ABA36
المدخالت والمخرجات المستعملة للتدريب
x1 x2 Target (t)
0 0 0
0 1 1
1 0 1
1 1 1
x1 x2 t W 11 W 12 W 21 W 22 W 10 W 20
0 0 0 1 0 0 1 1 1
في البداية سنفترض أوزانا عشوائية ونبدأ باستعمال الصف
األول من جدول المدخالت والمخرجات آما هو مبين في
الجدول
ABA37
بعد ذلك يتم تمرير المدخالت على الشبكة للوصول إلى :المخرجات وهنا سنستعمل المصطلحات التالية
hi1 = جمموع املدخالت للخلية األوىل يف الطبقة اخلفية
hi2 = جمموع املدخالت للخلية الثانية يف الطبقة اخلفية
ho1 = خمرج اخللية األوىل يف الطبقة اخلفية ho2 = خمرج اخللية الثانية يف الطبقة اخلفية N = جمموع املدخالت خللية طبقة املخرجات O = للشبكة املخرج الفعلي
ABA38
:وبالتالي نحصل على القيم التالية
hi1 = W11 x1 + W21 x2 = (1) (0) + (0) (0) = 0
hi2 = W12 x1 + W22 x2 = (0) (0) + (1) (0)
= 0
ABA39
1ihe1
11Oh
−+=
5.00e1
1=
−+=
2ihe1
12Oh
−+=
5.00e1
1=
−+=
ABA40
يمكننا اآلن الحصول على مجموع اإلشارات التي تدخل :على خلية طبقة المخرجات
: وبهذا يكون المخرج الفعلي للشبكة
N = W10 hO1 + W20 hO2 = (1) (0.5) + (1) (0.5)
= 1
1e1
1Ne1
1O−+
=−+
=
= 0.73106
ABA41
هذه النتيجة األولية بعيده عن النتيجة المطلوبة ولذلك نحتاج لتعديل األوزان لالقتراب من الهدف
: لتحديد مقدار الخطأ في النتيجة ، سنستعمل
باستعمال هذه القيمة يمكننا اآلن تعديل األوزان التي تربط بين : الطبقة الخفية وطبقة المخرجات باستعمال المعادلة التالية
( ) ( )O1OOtO −−=δ= (0-0.73106) (0.73106) (1-0.73106)= -0.14373
ABA42
1OhO10W10W δ+← η = 1 + (1) (-.14373) (0.5) = 0. 92813
2OhO20W20W δ+← η = 1 + (1) (-.14373) (0.5) = 0. 92813
عند هذه النقطة نكون قد تراجعنا من مستوى طبقة المخرجات إلى الطبقة الخفية
ABA43
. وسنواصل على نفس النهج في اتجاه طبقة المدخالت : يمكننا اآلن تحديد قيمة لخطأ
( ) O10W1Oh11Ohh1 δ−=δ = (0.5) (1-0.5) (.92813) (-0.14373) = -0.03335
( ) O20W2Oh12Ohh2 δ−=δ = (0.5) (1-0.5) (0.92813) (-0.14373) = -0.03335
ABA44
: ويمكن اآلن تعديل األوزان الباقية آالتالي
نالحظ هنا أن األوزان لم تتغير وهذا طبيعي ألن المدخالت آلها .لكن سيتغير الوضع مع المدخالت األخرى . تساوي صفر
1h1111 1WW xδ+= η
= 1 + (1) (-0.03335) (0) = 1
1h1212 2WW xηδ+=
= 0 + (1) (-0.03335) (0) = 0
2h2121 1WW xη δ+=
= 0 + (1) (-0.03335) (0) = 0
2h2222 2WW xη δ+=
= 1 + (1) (-0.03335) (0) = 1
ABA45
نتائج المرور األول في عملية التدريب
x1 x2 t W 11 W 12 W 21 W 22 W 10 W 20
0 0 0 1 0 0 1 0.92813 0.92813
سنأخذ اآلن الصف الثاني من المعطيات ونعيد تدريب الشبكة بنفس الطريقة السابقة وباتباع نفس الخطوات
:إذا البيانات التي سنستعملها في التدريب هي x1 = 0 , x2 = 1 , t = 1
ABA46
عليها في تحصلنا باستعمال هذه القيم واألوزان التي : المرحلة السابقة تكون نتائج التدريب آالتالي
نتائج المرور الثاني في التدريب
x 1 x 2 t W 1 1 W 1 2 W 2 1 W 2 2 W 1 0 W 2 0
0 1 1 1 0 0 .0 1 0 5 4 1 .0 0 8 3 8 0 .9 5 0 3 0 .9 6 0 5 6
ABA47
تقتضي عملية التدريب أن نعيد نفس الخطوات مرات عديدة لنحصل على أقل قيمة للخطأ
يوضح الجدول التالي األوزان بعد إعادة العمليات السابقة وآما نرى في الجدول أصبحت النتائج األلف مرة قرابة
الفعلية قريبة جدا من النتائج المطلوبة
جدول األوزان النهائية
W11 W12 W21 W22 W10 W20
-3.5402 4.0244 -3.5248 4.5814 -11.9103 4.6940
ABA48
مقارنة بين النتائج الفعلية والمطلوبة بعد إتمام علمية التدريب
x1 x2 Target (t) O utput (O )0 0 0 0.0264 0 1 1 0.9867 1 0 1 0.9863 1 1 1 0.9908
من خالل المثال السابق ، نرى أن صعوبة التدريب ال تكمن في فهمه ولكن في المجهود الذي يتطلبه خصوصا مع
ولهذا السبب تتم هذه آلالف المرات تكرار العمليات أحيانا الحاسوب العملية عادة باستعمال
ABA49
: قضايا إضافية في تدريب الشبكات العصبية عند التعامل مع هذه الشبكات يجب االنتباه إلى بعض
القضايا المهمة خصوصا عند التصميم والتدريب وعدم االنتباه ألي من هذه القضايا يؤدي إلى شبكات عصبية
: ومن هذه القضايا . ناقصة أو عديمة الفعالية ) Overfitting( التدريـب المفرط ) Underfitting(التدريـب الناقص
اختيار حجم الشبكة ) Normalization( معايرة البيانـات
) Learning Rate( سرعة التعلـم
ABA50
التدريب المفرط والتدريب الناقص
تدريب ناقص تدريب سليم تدريب مفرط
ABA51
لتالفي مشكالت التدريب، هناك عدد آبير من الطرق والتعليمات، .للتدريب ) Early Stopping( أهمها التوقيف المبكر
: وفي هذه الطريقة، تقسم البيانات إلى ثالثة أقسام
)Training(ثلـث للتدريب )Validation( وثلـث للتدقيق
) Testing( وثلـث آخر لالختبـار
ABA52
وقت التوقيف لتاليف التدريب املفرط
التدقيق Validation
التدريب Training
وقت التدريب
اخلطأ
رسم خطأ التدريب وخطأ التدقيق لتحديد الوقت المناسب إلنهاء التدريب
ABA53
: اختيار الحجم المناسب للشبكة يعتبر اختيار الحجم المناسب للشبكة أصعب المشكالت على اإلطالق
في تصميم الشبكات العصبية االصطناعية
ة، فباإلضافة إلى االختيارات الكثيرة المتوفرة لدالة التنشيط لكل خلي هناك إشكالية اختيار العدد المناسب للطبقات في الشبكة وعدد الخاليا
في آل من هذه الطبقات
وآل هذه االختيارات يجب أن تتم قبل البداية في التدريب وبدون شك، فإن االختيار غير الموفق لحجم الشبكة يؤدي إلى نتائج غير مقبولة
مازالت أآثر الطرق استعماال في اختيار حجم الشبكة هي أقدم الطرق ) Trial and Error(وأسهلها وهي طريقة المحاولة والخطأ
ABA54
على المصمم أن يجرب عددا من الشبكات ويختار أحسنها على أن يكون هذا التجريب منهجيا نوعا ما حتى ال يستغرق وقتا طويال
بإمكان المصمم أن يبدأ بشبكة بسيطة ويزيد في حجمها شيئا فشيئا بإضافة خاليا أو طبقات إلى أن يصل إلى نتائج مقبولة
ى آما يمكنه أن يبدأ بشبكة معقدة ويعمل على تبسيطها شيئا فشيئا إل أن يصل إلى شبكة مقبولة من ناحية التعقيد واألداء
قد يكـون –قد يتبادر إلى الذهن أن هذه الطريقة تستغرق وقتا طويال لكن في معظم األحيان وبتوفر البرمجيات الكثيرة –الحال آذلك يمكن الوصول إلى نتائج ممتازة في وقت MATLABآبرنامج الـ
معقول
ABA55
Normalizationمعايرة البيانات في حاالت آثيرة ، تكون البيانات المعدة لتدريب الشبكة
ينصح دائما بمعايرة مدخالت ومخرجات . ذات قيم عالية الشبكة
: ولهذه المعايرة فوائد آثيرة أهمها أن آل المدخالت تكون قيمها متقاربة وبالتالي ال يطغى مدخل على آخر :أوال تجعل التدريب سريعا ) -1 و 1مـن األحسـن بين (أن القيـم المعيرة : ثانيا
وللقيام بمعايرة البيانات يمكن أن تقسم بيانات متغير ما على أآبر قيمة فيه وبالتالي تصبح القيمة القصوى بعد
المعايرة مساوية لواحد
ABA56
: قضايا في خوارزمية التدريب من االختيارات التي يجب على المصمم تحديدهـا أثنـاء
وهذا المتغير Learning Rateالتدريـب سرعـة التعلـم هو الذي يحدد سرعة تحديث األوزان والوصول إلى
األوزان النهائية
إذا آان هذا المتغير صغيرا يكون التحديث بطيئا وبالتالي تستغرق عملية التدريب وقتا طويال
لكن إذا آان هذا المتغير آبيرا قد تتذبذب األوزان وتبتعد عن األوزان المطلوبة شيئا فشيئا وتصل عملية التدريب
إلى حالة عدم استقرار
ABA57
فتحديد سرعة التعلم ، إذا ، تحتاج إلى شيء من االهتمام
نظريا، يمكن للمصمم أن يرسم مقدار الخطأ حسب قيم األوزان أثناء التدريب ويحصل بذلك على مساحة تسمى مساحة الخطأ
فإذا آانت المساحة منبسطة بإمكانه تكبير سرعة التعلم وإذا ما فعليه تصغير سرعة التعلم ) صعودا أو نزوال(آانت متغيرة
عمليا، يمكن للمصمم أن يختار سرعة التعلم عشوائيا على أن ويغيرها شيئا فشيئا ليصل إلى اختيار مناسب 1تكون أقل من
يجمع بين سرعة التدريب والمحافظة على استقراره
ABA58
خالصةمن خالل ما استعرضناه من بعض القضايا الكثيرة في
عملية التدريب وتصميم الشبكات العصبية نرى أن الميدان واسع جدا
إال أن هذا االتساع والتشعب ال يستهوي إال المتخصصين والباحثين في هذا الميدان ونظرياته
فيكفيهم ) وقد يكونوا األغلبية ( أما البقية وهم المستعملون ) حتى بدون القضايا اإلضافية (القليل مما تم استعراضه
والتوقع النمذجة لحل عدد آبير من المشكالت الهندسية في واالستقراء ومسائل أخرى مماثلة تظهر فيها الشبكات
العصبية االصطناعية أداء ملفتا
ABA59