nuural network in arabic

59
ABA 1 اﻻﺻﻄﻨﺎﻋﻴﺔ اﻟﻌﺼﺒﻴﺔ اﻟﺸﺒﻜﺎت اﻻﺻﻄﻨﺎﻋﻴﺔ اﻟﻌﺼﺒﻴﺔ اﻟﺸﺒﻜﺎتNEURAL NETWORKS NEURAL NETWORKS د د. . ﻋﺎدل ﻋﺎدل ﻋـﺒـﺪاﻟﻨﻮر ﻋـﺒـﺪاﻟﻨﻮر اﻟﻜﻬﺮﺑﺎﺋﻴﺔ اﻟﻬﻨﺪﺳﺔ ﻗﺴﻢ اﻟﻜﻬﺮﺑﺎﺋﻴﺔ اﻟﻬﻨﺪﺳﺔ ﻗﺴﻢ ﺳﻌﻮد اﻟﻤﻠﻚ ﺟﺎﻣﻌﺔ ﺳﻌﻮد اﻟﻤﻠﻚ ﺟﺎﻣﻌﺔ

Upload: annjhon03

Post on 13-Jul-2016

222 views

Category:

Documents


2 download

DESCRIPTION

Arabic description of nueral networks

TRANSCRIPT

Page 1: Nuural network in arabic

ABA1

الشبكات العصبية االصطناعية الشبكات العصبية االصطناعية NEURAL NETWORKSNEURAL NETWORKS

عـبـدالنور عـبـدالنور عادل عادل . . ددقسم الهندسة الكهربائية قسم الهندسة الكهربائية

جامعة الملك سعود جامعة الملك سعود

Page 2: Nuural network in arabic

ABA2

الحاسوب من المفارقات التي تدعوا لالندهاش أن سرعة •) 107( مليار مرة 10تفوق سرعة الخلية العصبية بـ

مع هذا ، بإمكان الشخص العادي التعرف على وجه •مألوف في عشر من الثانية مستعمال خاليا عصبية ال

. من الثانية 1/1000تزيد سرعتها على بتأمل هذه األرقام نستنتج أن الحد األقصى للخطوات التي •

بأي حال ) 1000/10( أي 100تتبعها الخاليا ال تزيد عن . من األحوال

Page 3: Nuural network in arabic

ABA3

من الوصول ) بالحاسوب مقارنة (فكيف تتمكن خاليا بطيئة إلى حلول بسرعة عالية ؟

لم يتوصل العلماء إلى تفسير مقنع ومنطقي سواء أن يكون سر قوة هذه الشبكات في طريقة معالجتهـا للبيانـات

)Information Processing (

فهذه الخاليا العصبيـة تعالـج بياناتـها بالتـوازي ) Parallel ( مما يكسبها سرعة فائقة

لقد آانت هذه النتيجة آافية إلغراء الكثير من الباحثين الشبكات العصبية البشرية باستعمال " تقليد " بمحاولة الحاسوب

Page 4: Nuural network in arabic

ABA4

مكونات اخللية العصبية البشرية

Page 5: Nuural network in arabic

ABA5

رغم أن المعلومات عن الخاليا العصبية غير مكتملة وما زلنا نجهل الكثير عنها ، إال أن القليل مما نعرفه آاف

إلقناعنا بتعقيدها الشديد

) 1012( فدماغ اإلنسان العادي يحتوي على ألف مليار خلية عصبية

مشبك مع الخاليا 10000لكل واحدة منها ما يقارب األخرى

فمجرد محاولة تخيل هذه الشبكة العجيبة ليس باألمر السهل

Page 6: Nuural network in arabic

ABA6

الخلية العصبية االصطناعية ) Artificial Neuron (

اتضح أنه باإلمكان تبسيط مكونات الخلية واالآتفاء مبدئيا ببعض وظائفها واستعمال عدد صغير منها ومن ثم تمثيلها

للحصول على خاليا عصبية اصطناعية " رياضيا "

يوضح الشكل التالي أبسط تمثيل للخلية العصبية االصطناعية وهو عبارة عن وحدة معالجة

) Processing Unit ( أطلق عليها اسم المدرك) Perceptron (

Page 7: Nuural network in arabic

ABA7

+

W1

W2

Wn

X1

X2

Xn

.

.

.

YOtherwise

xWIfn

iii∑ >

=1ο

⎪⎩

⎪⎨⎧1

0=

باستعمال هذا التمثيل المبسط ، يمكن لوحدة المدرك أن : معظم العمليات المنطقية آعمليات تنمذج

)OR" (أو ” )AND" ( و ” )NAND" ( و–ال " )NOR" ( أو –ال "

Page 8: Nuural network in arabic

ABA8

للوصول إلى ذلك تحتاج وحدة المدرك إلى تدريب

التدريب هو إعطاء الوحدة بعض المدخالت وبعض المخرجات :المرغوبة لتتمكن من تعديل األوزان حسب القاعدة التالية

Wi new = Wi old + a (O desired – O) xi : حيث

Wi =األوزانO =المخرجxi =المدخلa سرعة التعلم=

Page 9: Nuural network in arabic

ABA9

آمثال على ذلك، لنفترض أننا نود تدريب وحدة المدرك )OR" (أو" العملية المنطقية لنمذجة

لنبـدأ عشوائيا باختيار األوزان لتكون صفرا في البداية 1وتكون قيمة سرعة التعلم

x1 x2 Odesired

0 0 0

0 1 1

1 0 1

1 1 1

W1

W2

x1

x2

O

Page 10: Nuural network in arabic

ABA10

:في هذه حالة يمكن آتابة المعادلة على الشكل التالي

W1 new = W1 old + (O desired – O) x1

W2 new = W2 old + (O desired – O) x2

لمدخالت مع تكرار لتدريب الوحدة ، تطبق المعادلة على آل ا العملية حتى تستقر األوزان عند قيم محددة ال تتغير بعدها

ويوضح الجدول التالي خطوات التدريب

Page 11: Nuural network in arabic

ABA11

x1 x2 W1old W2old Odesired O error W1 new

W2 new

0 0 0 0 0 0 0 0 0

0 1 0 0 1 0 1 0 1

1 0 0 1 1 0 1 1 1

1 1 1 1 1 1 0 1 1

0 0 1 1 0 0 0 1 1

0 1 1 1 1 1 0 1 1

W2: من خالل الجدول نالحظ أن األوزان النهائية هي = 1 = W1

Page 12: Nuural network in arabic

ABA12

في حل هذه المشكالت نجاعةلقد أظهرت وحدة المدرك و ) Classification(البسيطة والتي تعنى بالتصنيف

(Separation)الفصل

هي عبارة عن وضع حد " أو" فعملية بين مجموعتينBoundary فاصل

مفصولتين أصال

وعملية التدريب ال تتعدى البحث عن هذا الخط الفاصل عن طريق

اختيار أوزان الترابط

X2

(0,0) (1,0)X1

1

00

0(0,1)

Page 13: Nuural network in arabic

ABA13

نمذجةهذه الوحدة غير قادرة على XOR" أو المقصورة "عملية

فهذه العملية غير قابلة للفصل

!!!!! الخطي

خيبة امل ؟؟؟؟

X2

(0,0) (1,0)X1

0

10

1(0,1)

Page 14: Nuural network in arabic

ABA14

مواصلة البحث في الميدان توصلت إلى أنه بإمكان فصل عملية

بطريقة ال خطية " أو المقصورة "

من أآثر وبذلك ظهرت فكرة استعمال خلية عصبية واحدة لتكوين شبكة

متكاملة من هذه الخاليا X2

(0,0) (1,0)X1

0

10

1(0,1)

Page 15: Nuural network in arabic

ABA15

بنية الشبكات العصبية االصطناعية استعمال الخلية الواحدة ، ظهرت فكرة نجاعةبعد اآتشاف عدم

استعمال شبكة آاملة من الخاليا العصبية االصطناعية

تم اقتراح أنواع متعددة من هذه الشبكات ، أهمها الشبكات ذات )Feed forward networks(التغذية األمامية

في هذه البنية يسمح لإلشارة بالتنقل فقط إلى األمام من المدخالت إلى المخرجات

فمخرجات أي من الطبقات ال تؤثر إال في الطبقة التي تليها آما ال يوجد أي ترابط بين خاليا الطبقة الواحدة

Page 16: Nuural network in arabic

ABA16

معظم الشبكات التي تتبع هذا النمط تتكون من طبقة المدخالت ) Input Layer ( وطبقة المخرجات)Output Layer (

وهما الطبقتان الوحيدتان اللتان لهما اتصال بالمحيط خارج الشبكة

– على األقـل – إضافة إلى هاتان الطبقتـان تضـم الشبكـة وسميـت آذلك ألنها ال ) Hidden Layer(طبقـة خفيـة

تتصـل بالمحيط خـارج الشبكـة ومرتبطة فقط بالطبقة التي تسبقها والتي تليها

وتتكون آل من هذه الطبقات الثالثة من عدد من الخاليا العصبية والتي يرمز لها بدائرة للتبسيط

Page 17: Nuural network in arabic

ABA17

1

2

3

x1

x2

x3

4

5

6

7

8

W14

W15

W24

W34

W35

W46

W58

O1

O2

O3

W25

W48

W57

W47

W56

المدخالت طبقة الخفيةالطبقة المخرجات طبقة

مثال على الشبكات ذات التغذية األمامية

Page 18: Nuural network in arabic

ABA18

إذا ما أخذنا آل خلية من الشبكة على حدة ، فإن العمليات التي تقوم بها هذه الخلية هي آالتي تقوم بها الوحدة المدرآة والتي

تطرقنا إليها سابقا مع اختالف بسيط ولكنه مهم

" العتبة "ففي الخلية المدرآة آانت المعالجة تتم عن طريق دالة )Threshold ( وهذه الدالة ثنائية القيمة وهذا ال يسمح إال

العمليات الخطية بنمذجه

األنظمة نمذجه لهذا، حتى تتمكن الشبكات العصبية من والمعقدة فالبد من إيجاد دالة أو داالت أخرى الالخطية والعمليات

غير دالة العتبة

Page 19: Nuural network in arabic

ABA19

الشبكات العصبية المراقبةSupervised Neural Networks

تسمى هذه الشبكات بالشبكات العصبية المراقبة ألنها تحتاج أثناء عملية التدريب إلى مراقب ليبين لها المخرج المطلوب

لكل من المدخالت

مع مقارنة المخرج الفعلي مع المخرج المطلوب تحاول لتصل في النهاية إلى ) Weights(الشبكات تحديث األوزان

النتيجة الصحيحة والتي ال تحتاج بعدها ال إلى التدريب وال إلى هذا اإلشراف الخارجي

Page 20: Nuural network in arabic

ABA20

وتتم هذه العملية باستعمال العديد من الطرق والخوارزميات "انتشار الخطأ االرتدادي "أهمها طريقة

)Error Back Propagation (

تبدأ العملية بإيجاد الخطأ بين المخرج المطلوب والفعلي وترجع بهذا الخطأ ارتداديا من الطبقة األخيرة إلى الطبقات

الخفية ثم أخيرا إلى طبقة المدخالت

وفي أثناء هذا االرتداد يتم تغيير األوزان في االتجاه الذي يدفع بالخطأ إلى النقصان ومن ثمة في اتجاه الصفر

Page 21: Nuural network in arabic

ABA21

وتستعمل هذه الطريقة التدريبية مع الشبكات ذات التغذية )Feedforward Networks(األمامية

: حتى ال يقع أي التباس نحتاج إلى توضيح أن وصف

يرجع إلى بنية الشبكة " التغذية األمامية "يرجع إلى طريقة " انتشار الخطأ االرتدادي " و

التدريب التي تستعمل مع هذه الشبكة

Page 22: Nuural network in arabic

ABA22

Activation Functions داالت التنشيط الالخطية المشكالت نمذجةحتى تتمكن الشبكات المراقبة من

والمعقدة البد من تطوير الطريقة التي تعالج بها الخلية البيانات

فعوضا عن دالة العتبة والتي يكون مخرجها واحد أو صفرا تحتاج خاليا هذه الشبكات إلى دالة أآثر مالءمة

:وأهم المواصفات التي يجب توفرها في هذه الدالة هي النمذجة الالخطية أن ال تكون ثنائية القيمة لتكون قادرة على :أوال

وهذا شرط ) Differentiation( أن تكون قابلة للتفاضل :ثانياأساسي تفرضه طريقة االنتشار االرتدادي للتدريب

Page 23: Nuural network in arabic

ABA23

وألهمية هذه الدالة في معالجة البيانات ، سميت بالدالة ) Activation Function ( التفعيليـة التنشيطية أو الدالة

)فعل منع أو تحريض(وصفا لفعل الخلية ) رياضيا (ألنها تمثال

: وتوجد أنواع مختلفة من داالت التنشيط منها وتستعمل عادة في خاليا طبقة المخرجات الدالة الخطية

وتستعمل في الطبقات األخرى السجماوية الدالة

Page 24: Nuural network in arabic

ABA24

السجماوية الدالة الدالة الخطية

½

f (x)

x

xexf −+

=1

1)(

1

f (x)=xf (x)

1x

Page 25: Nuural network in arabic

ABA25

مثالx2 = 0.2

w22=6

x1 = 0.1

w11=3

w12=4w21=5

w10=7

w20=8

x2 = 0.1

w22=6

+

+

+

x1 = 0.1w11=3

w12=4 w21=5

1.62

f

f

/

1.6

1.3

w10=7

w20=8 o=1.622

79.03.11

1=

−+e

83.06.11

1=

−+e

?

Page 26: Nuural network in arabic

ABA26

) Training Algorithm( خوارزمية التدريب

هناك عدد آبير من الخوارزميات أآثرهـا استعمـاال هـي ) Back propagation(خوارزميـات االنتشـار االرتـدادي

هذه الخوارزميات قد تبدو معقدة آما سنرى لكنها في الواقع أسهل .مما تبدو) على مستوى الفهم والبرمجة (بكثير

هي في األصـل اشتقـاقـا مـن العمليـة المعـروفـة والمسـمـــاة ) Least Mean Squares" ( متـوســط المـربعـات األدنــى "

وبالتالي فهي تسعى لتقليل مربع الخطأ عند التدريب

Page 27: Nuural network in arabic

ABA27

سنفترض أن الخاليا العصبية االصطناعية تستعمل الدالة آدالة تنشيط ألنه من السهل جدا اشتقاقها آما السجماوية

: في المعادلة التالية مسوضحهو

[ ])x(f1)x(f

dx)x(df

−= xe1

1)x(−+

=f

:وتتمتع عملية االنتشار االرتدادي بميزات عدة أهمها ضمان الحد األدنى لمتوسط مربع الخطأ

قابليتها للتعامل مع البيانات المشوشة وغير الالخطية وقدرتها على التعامل مع األنظمة والداالت

القابلة للفصل الخطي

Page 28: Nuural network in arabic

ABA28

:وتتكون هذه العملية من ست خطوات أساسية وهي

إعطاء أوزان عشوائية للترابط بين خاليا الشبكة

مد الشبكة بإحدى المدخالت المعدة للتدريب

تطبيق عملية االنتشار األمامي لتحديد مخرجات الشبكة

مقارنة المخرجات الفعلية مع المخرجات المطلوبة وتحديد قيمة الخطأ

التراجع بالخطأ عبر الشبكة وتصحيح األوزان في االتجاه الذي يضمن االنتشار االرتدادي تصغير قيمة الخطأ ومن هنا جاءت تسمية

تصغير إجمالي الخطأ لكل المدخالت المستعملة في التدريب

Page 29: Nuural network in arabic

ABA29

المخرج النهائي المطلوب : t (Target)مثالO (Output) : مخرج أي خلية عصبية f (Activ. Func.) : دالة التنشيط η (Learning Rate) : سرعة التعلمW (Weight) : الوزن أو قوة الترابط δ (Error signal) : الخطأ

) Subscripts(بعض هذه الرموز ستحمل رموزا سفلية دليليه . حسب الطبقة التي تنتمي إليها الخلية العصبية

Page 30: Nuural network in arabic

ABA30

i j kwij wjk

Okojoi..

.

.

.

.

.

.

الرموز المستعملة في تدريب شبكة ذات ثالث طبقات

Page 31: Nuural network in arabic

ABA31

:الخطوة األولى تبدأ هذه الخطوة عند طبقة المخرجات وفيها نحدد مجموع

: اإلشارات التي تدخل على آل من خالياها

∑=j

jOjkWkN

بعد مرور هذه القيمة على الخلية والممثلة في الدالة التنشيطية : يكون مخرج آل خلية في طبقة المخرجات السجماوية

)kN(1

1kO f=

−+=

kNe

Page 32: Nuural network in arabic

ABA32

: الخطوة الثانية :على النحو التالي ) δ( مقدار الخطأ ديد في هذه الخطوة يتم تح

:و يمكن تبسيـط المعادلة لتصبح

وبالحصول على هذه القيمة يمكن أن نصحح آل األوزان التي تربط الطبقة على . ηالخفية بطبقة المخرجات وبالسرعة المطلوبة حسب سرعة التعلم

:النحو التالي

)kN()kOkt(k'f−=δ

)kO1(kO)kOkt(k −−=δ

jWW Οδ+← kηjkjk

Page 33: Nuural network in arabic

ABA33

: الخطوة الثالثة وصلنا للخاليا العصبية في الطبقة الخفية لنعيد تقريبا نفس :العمليات السابقة وأولها تحديد قيمة الخطأ في هذه الطبقة

بالتالي يتم تحديد األوزان الجديدة بين طبقة المدخالت والطبقة : الخفية باستعمال

ويتم تطبيق هذه الخطوات على آل المدخالت المعدة للتدريب ولمرات عديدة حتى تصل الشبكة إلى أقل نسبة خطأ ممكنة

وعندها وتصبح الشبكة جاهزة لالستعمال

( ) ∑ δ−Ο=δk

kjkWjO1jj

ijijWijW Οδ+← η

Page 34: Nuural network in arabic

ABA34

مثال على تدريب الشبكات

يكون االنطباع األولي عن عملية تدريب الشبكات بأنها عملية صعبة ومعقدة

لهذا سنحاول من خالل مثال مبسط توضيح أنها ليست بالصعوبة التي يظنها الكثير

فقط لتسهيل العمليات 1 لتكون η سنختـار سرعة التدريب الحسابية

Page 35: Nuural network in arabic

ABA35

x2 W22

x1W11

W12 W21h1

h2

Input Layer( i )

Output (O)

Hidden( h )

W10

W20

الشبكة المعدة للتدريب

Page 36: Nuural network in arabic

ABA36

المدخالت والمخرجات المستعملة للتدريب

x1 x2 Target (t)

0 0 0

0 1 1

1 0 1

1 1 1

x1 x2 t W 11 W 12 W 21 W 22 W 10 W 20

0 0 0 1 0 0 1 1 1

في البداية سنفترض أوزانا عشوائية ونبدأ باستعمال الصف

األول من جدول المدخالت والمخرجات آما هو مبين في

الجدول

Page 37: Nuural network in arabic

ABA37

بعد ذلك يتم تمرير المدخالت على الشبكة للوصول إلى :المخرجات وهنا سنستعمل المصطلحات التالية

hi1 = جمموع املدخالت للخلية األوىل يف الطبقة اخلفية

hi2 = جمموع املدخالت للخلية الثانية يف الطبقة اخلفية

ho1 = خمرج اخللية األوىل يف الطبقة اخلفية ho2 = خمرج اخللية الثانية يف الطبقة اخلفية N = جمموع املدخالت خللية طبقة املخرجات O = للشبكة املخرج الفعلي

Page 38: Nuural network in arabic

ABA38

:وبالتالي نحصل على القيم التالية

hi1 = W11 x1 + W21 x2 = (1) (0) + (0) (0) = 0

hi2 = W12 x1 + W22 x2 = (0) (0) + (1) (0)

= 0

Page 39: Nuural network in arabic

ABA39

1ihe1

11Oh

−+=

5.00e1

1=

−+=

2ihe1

12Oh

−+=

5.00e1

1=

−+=

Page 40: Nuural network in arabic

ABA40

يمكننا اآلن الحصول على مجموع اإلشارات التي تدخل :على خلية طبقة المخرجات

: وبهذا يكون المخرج الفعلي للشبكة

N = W10 hO1 + W20 hO2 = (1) (0.5) + (1) (0.5)

= 1

1e1

1Ne1

1O−+

=−+

=

= 0.73106

Page 41: Nuural network in arabic

ABA41

هذه النتيجة األولية بعيده عن النتيجة المطلوبة ولذلك نحتاج لتعديل األوزان لالقتراب من الهدف

: لتحديد مقدار الخطأ في النتيجة ، سنستعمل

باستعمال هذه القيمة يمكننا اآلن تعديل األوزان التي تربط بين : الطبقة الخفية وطبقة المخرجات باستعمال المعادلة التالية

( ) ( )O1OOtO −−=δ= (0-0.73106) (0.73106) (1-0.73106)= -0.14373

Page 42: Nuural network in arabic

ABA42

1OhO10W10W δ+← η = 1 + (1) (-.14373) (0.5) = 0. 92813

2OhO20W20W δ+← η = 1 + (1) (-.14373) (0.5) = 0. 92813

عند هذه النقطة نكون قد تراجعنا من مستوى طبقة المخرجات إلى الطبقة الخفية

Page 43: Nuural network in arabic

ABA43

. وسنواصل على نفس النهج في اتجاه طبقة المدخالت : يمكننا اآلن تحديد قيمة لخطأ

( ) O10W1Oh11Ohh1 δ−=δ = (0.5) (1-0.5) (.92813) (-0.14373) = -0.03335

( ) O20W2Oh12Ohh2 δ−=δ = (0.5) (1-0.5) (0.92813) (-0.14373) = -0.03335

Page 44: Nuural network in arabic

ABA44

: ويمكن اآلن تعديل األوزان الباقية آالتالي

نالحظ هنا أن األوزان لم تتغير وهذا طبيعي ألن المدخالت آلها .لكن سيتغير الوضع مع المدخالت األخرى . تساوي صفر

1h1111 1WW xδ+= η

= 1 + (1) (-0.03335) (0) = 1

1h1212 2WW xηδ+=

= 0 + (1) (-0.03335) (0) = 0

2h2121 1WW xη δ+=

= 0 + (1) (-0.03335) (0) = 0

2h2222 2WW xη δ+=

= 1 + (1) (-0.03335) (0) = 1

Page 45: Nuural network in arabic

ABA45

نتائج المرور األول في عملية التدريب

x1 x2 t W 11 W 12 W 21 W 22 W 10 W 20

0 0 0 1 0 0 1 0.92813 0.92813

سنأخذ اآلن الصف الثاني من المعطيات ونعيد تدريب الشبكة بنفس الطريقة السابقة وباتباع نفس الخطوات

:إذا البيانات التي سنستعملها في التدريب هي x1 = 0 , x2 = 1 , t = 1

Page 46: Nuural network in arabic

ABA46

عليها في تحصلنا باستعمال هذه القيم واألوزان التي : المرحلة السابقة تكون نتائج التدريب آالتالي

نتائج المرور الثاني في التدريب

x 1 x 2 t W 1 1 W 1 2 W 2 1 W 2 2 W 1 0 W 2 0

0 1 1 1 0 0 .0 1 0 5 4 1 .0 0 8 3 8 0 .9 5 0 3 0 .9 6 0 5 6

Page 47: Nuural network in arabic

ABA47

تقتضي عملية التدريب أن نعيد نفس الخطوات مرات عديدة لنحصل على أقل قيمة للخطأ

يوضح الجدول التالي األوزان بعد إعادة العمليات السابقة وآما نرى في الجدول أصبحت النتائج األلف مرة قرابة

الفعلية قريبة جدا من النتائج المطلوبة

جدول األوزان النهائية

W11 W12 W21 W22 W10 W20

-3.5402 4.0244 -3.5248 4.5814 -11.9103 4.6940

Page 48: Nuural network in arabic

ABA48

مقارنة بين النتائج الفعلية والمطلوبة بعد إتمام علمية التدريب

x1 x2 Target (t) O utput (O )0 0 0 0.0264 0 1 1 0.9867 1 0 1 0.9863 1 1 1 0.9908

من خالل المثال السابق ، نرى أن صعوبة التدريب ال تكمن في فهمه ولكن في المجهود الذي يتطلبه خصوصا مع

ولهذا السبب تتم هذه آلالف المرات تكرار العمليات أحيانا الحاسوب العملية عادة باستعمال

Page 49: Nuural network in arabic

ABA49

: قضايا إضافية في تدريب الشبكات العصبية عند التعامل مع هذه الشبكات يجب االنتباه إلى بعض

القضايا المهمة خصوصا عند التصميم والتدريب وعدم االنتباه ألي من هذه القضايا يؤدي إلى شبكات عصبية

: ومن هذه القضايا . ناقصة أو عديمة الفعالية ) Overfitting( التدريـب المفرط ) Underfitting(التدريـب الناقص

اختيار حجم الشبكة ) Normalization( معايرة البيانـات

) Learning Rate( سرعة التعلـم

Page 50: Nuural network in arabic

ABA50

التدريب المفرط والتدريب الناقص

تدريب ناقص تدريب سليم تدريب مفرط

Page 51: Nuural network in arabic

ABA51

لتالفي مشكالت التدريب، هناك عدد آبير من الطرق والتعليمات، .للتدريب ) Early Stopping( أهمها التوقيف المبكر

: وفي هذه الطريقة، تقسم البيانات إلى ثالثة أقسام

)Training(ثلـث للتدريب )Validation( وثلـث للتدقيق

) Testing( وثلـث آخر لالختبـار

Page 52: Nuural network in arabic

ABA52

وقت التوقيف لتاليف التدريب املفرط

التدقيق Validation

التدريب Training

وقت التدريب

اخلطأ

رسم خطأ التدريب وخطأ التدقيق لتحديد الوقت المناسب إلنهاء التدريب

Page 53: Nuural network in arabic

ABA53

: اختيار الحجم المناسب للشبكة يعتبر اختيار الحجم المناسب للشبكة أصعب المشكالت على اإلطالق

في تصميم الشبكات العصبية االصطناعية

ة، فباإلضافة إلى االختيارات الكثيرة المتوفرة لدالة التنشيط لكل خلي هناك إشكالية اختيار العدد المناسب للطبقات في الشبكة وعدد الخاليا

في آل من هذه الطبقات

وآل هذه االختيارات يجب أن تتم قبل البداية في التدريب وبدون شك، فإن االختيار غير الموفق لحجم الشبكة يؤدي إلى نتائج غير مقبولة

مازالت أآثر الطرق استعماال في اختيار حجم الشبكة هي أقدم الطرق ) Trial and Error(وأسهلها وهي طريقة المحاولة والخطأ

Page 54: Nuural network in arabic

ABA54

على المصمم أن يجرب عددا من الشبكات ويختار أحسنها على أن يكون هذا التجريب منهجيا نوعا ما حتى ال يستغرق وقتا طويال

بإمكان المصمم أن يبدأ بشبكة بسيطة ويزيد في حجمها شيئا فشيئا بإضافة خاليا أو طبقات إلى أن يصل إلى نتائج مقبولة

ى آما يمكنه أن يبدأ بشبكة معقدة ويعمل على تبسيطها شيئا فشيئا إل أن يصل إلى شبكة مقبولة من ناحية التعقيد واألداء

قد يكـون –قد يتبادر إلى الذهن أن هذه الطريقة تستغرق وقتا طويال لكن في معظم األحيان وبتوفر البرمجيات الكثيرة –الحال آذلك يمكن الوصول إلى نتائج ممتازة في وقت MATLABآبرنامج الـ

معقول

Page 55: Nuural network in arabic

ABA55

Normalizationمعايرة البيانات في حاالت آثيرة ، تكون البيانات المعدة لتدريب الشبكة

ينصح دائما بمعايرة مدخالت ومخرجات . ذات قيم عالية الشبكة

: ولهذه المعايرة فوائد آثيرة أهمها أن آل المدخالت تكون قيمها متقاربة وبالتالي ال يطغى مدخل على آخر :أوال تجعل التدريب سريعا ) -1 و 1مـن األحسـن بين (أن القيـم المعيرة : ثانيا

وللقيام بمعايرة البيانات يمكن أن تقسم بيانات متغير ما على أآبر قيمة فيه وبالتالي تصبح القيمة القصوى بعد

المعايرة مساوية لواحد

Page 56: Nuural network in arabic

ABA56

: قضايا في خوارزمية التدريب من االختيارات التي يجب على المصمم تحديدهـا أثنـاء

وهذا المتغير Learning Rateالتدريـب سرعـة التعلـم هو الذي يحدد سرعة تحديث األوزان والوصول إلى

األوزان النهائية

إذا آان هذا المتغير صغيرا يكون التحديث بطيئا وبالتالي تستغرق عملية التدريب وقتا طويال

لكن إذا آان هذا المتغير آبيرا قد تتذبذب األوزان وتبتعد عن األوزان المطلوبة شيئا فشيئا وتصل عملية التدريب

إلى حالة عدم استقرار

Page 57: Nuural network in arabic

ABA57

فتحديد سرعة التعلم ، إذا ، تحتاج إلى شيء من االهتمام

نظريا، يمكن للمصمم أن يرسم مقدار الخطأ حسب قيم األوزان أثناء التدريب ويحصل بذلك على مساحة تسمى مساحة الخطأ

فإذا آانت المساحة منبسطة بإمكانه تكبير سرعة التعلم وإذا ما فعليه تصغير سرعة التعلم ) صعودا أو نزوال(آانت متغيرة

عمليا، يمكن للمصمم أن يختار سرعة التعلم عشوائيا على أن ويغيرها شيئا فشيئا ليصل إلى اختيار مناسب 1تكون أقل من

يجمع بين سرعة التدريب والمحافظة على استقراره

Page 58: Nuural network in arabic

ABA58

خالصةمن خالل ما استعرضناه من بعض القضايا الكثيرة في

عملية التدريب وتصميم الشبكات العصبية نرى أن الميدان واسع جدا

إال أن هذا االتساع والتشعب ال يستهوي إال المتخصصين والباحثين في هذا الميدان ونظرياته

فيكفيهم ) وقد يكونوا األغلبية ( أما البقية وهم المستعملون ) حتى بدون القضايا اإلضافية (القليل مما تم استعراضه

والتوقع النمذجة لحل عدد آبير من المشكالت الهندسية في واالستقراء ومسائل أخرى مماثلة تظهر فيها الشبكات

العصبية االصطناعية أداء ملفتا

Page 59: Nuural network in arabic

ABA59