Image from Google Jackets

Enhancing the performance of the BackPropagation algorithm for deep neural network / Ola Mohammad Surakhi; supervisor Professor Waild A.Salameh.

By: Contributor(s): Language: English Summary language: Arabic 2014Description: xiii, 67 leaves: illustrations. 30 cm CDContent type:
  • text
  • computer program
Media type:
  • unmediated
  • computer
Carrier type:
  • volume
  • computer disc
Other title:
  • تحسين اداء خوارزمية الانتشار الخلفي في الخلايا العصبية الصناعية
Subject(s): Genre/Form: LOC classification:
  • QA76.87 .S94 2014
Dissertation note: Theses(M.Sc.), in computer science, Princess Sumaya University for Technology, 2014. Abstract: One major problem encountered by researchers in improving the performance of the Backpropagation algorithm is the slow convergence and convergence to the local minima. Many modified and new versions on the Backpropagation since it has been used and launched. Those have proposed a careful selection on the initial weights and biases, learning rate, momentum, network topology and activation function. As the algorithm is widely used in solving many real problems in the world there is still a sever need for more efficient modification. This thesis, in fact, will describe a new approach to enhance the performance of training multilayer neural networks and deep neural networks with more than one hidden layer by using a new algorithm which is called the Extended Optical Backpropagation (EOBP). A new error function has been adopted to replace the error function used in Optical Backpropagation OBP algorithm which gives a rapid reaction to changes in the weights value by increasing the training speed with less number of iterations and without loss of learn-ability. Experiments have been conducted to compare and to evaluate the convergence behavior of these training algorithms with two training problems: XOR and the Iris plant classification. The results showed that the proposed algorithm converges to a reasonable range of error after a few numbers of training epochs.Abstract: من اكبر المشاكل التي واجهت الباحثين في تحسين أداء خوارزمية االنتشار الخلفي هو التقارب البطيء والتقارب إلى القيم الدنيا المحلية. العديد من الاصدارات المعدلة والجديدة على الانتشار الخلفي منذ استخدامها وإطلاقها. هذه الاصدارات تضمنت مجموعة مختارة بعناية من الأوزان المبدئية والتحيز، ومعدل التعلم ، الزخم، هيكلية الشبكة ووظيفة التنشيط. ونظرا لاستخدام الخوارزمية على نطاق واسع في حل العديد من المشاكل الحقيقية في العالم لا يزال هناك حاجة للتعديل عليها للحصول على كفاءة اكبر هذه الأطروحة، في الواقع، سوف تقدم نهجا جديدا لتعزيز أداء تدريب الشبكات العصبية متعددة الطبقات والشبكات العصبية العميقة بوجود أكثر من طبقة واحدة خفية عن طريق استخدام خوارزمية جديدة وهو ما يسمى الانتشار الخلفي البصرية الموسع تستخدم الخوارزمية الجديدة طريقة جديدة عوضا عن تلك السابقة المستخدمة في خوارزمية الانتشار الخلفي البصرية والتي اظهرت رد فعل سريع للتغيرات في قيمة الاوزان عن طريق زيادة سرعة التدريب مع أقل عدد من التكرارات ودون فقدان القدرة تعلم وقد تم مقارنة وتقييم اداء الخوارزمية عن طريق التجربة في مشكلتين اساسيتين هما: XOR وتصنيف النباتات ايريس وأظهرت النتائج أن الخوارزمية المقترحة تتقارب إلى نطاق معقول من الخطأ بعد أعداد قليلة من التكرارات.
List(s) this item appears in: Data Science - Theses
Star ratings
    Average rating: 0.0 (0 votes)
Holdings
Item type Current library Collection Call number Copy number Status Date due Barcode
Master Thesis Master Thesis المستودع Thesis QA76.87.S94 2014 (Browse shelf(Opens below)) 1 لا يُعار 25763
Master Thesis Master Thesis المستودع Thesis QA76.87.S94 2014 (Browse shelf(Opens below)) 2 لا يُعار 25764

Theses(M.Sc.), in computer science, Princess Sumaya University for Technology, 2014.

One major problem encountered by researchers in improving the performance of the Backpropagation algorithm is the slow convergence and convergence to the local minima.
Many modified and new versions on the Backpropagation since it has been used and launched.
Those have proposed a careful selection on the initial weights and biases, learning rate, momentum, network topology and activation function. As the algorithm is widely used in solving many real problems in the world there is still a sever need for more efficient
modification.
This thesis, in fact, will describe a new approach to enhance the performance of training multilayer neural networks and deep neural networks with more than one hidden layer by using a new algorithm which is called the Extended Optical Backpropagation (EOBP). A new error function has been adopted to replace the error function used in Optical Backpropagation OBP algorithm which gives a rapid reaction to changes in the weights value by increasing the training speed with less number of iterations and without loss of learn-ability.
Experiments have been conducted to compare and to evaluate the convergence behavior of these training algorithms with two training problems: XOR and the Iris plant classification. The results showed that the proposed algorithm converges to a reasonable range of error after a few numbers of training epochs.

من اكبر المشاكل التي واجهت الباحثين في تحسين أداء خوارزمية االنتشار الخلفي هو التقارب البطيء والتقارب إلى القيم الدنيا المحلية. العديد من الاصدارات المعدلة والجديدة على الانتشار الخلفي منذ استخدامها وإطلاقها. هذه الاصدارات تضمنت مجموعة مختارة بعناية من الأوزان المبدئية والتحيز، ومعدل التعلم ، الزخم، هيكلية الشبكة ووظيفة التنشيط. ونظرا لاستخدام الخوارزمية على نطاق واسع في حل العديد من المشاكل الحقيقية في العالم لا يزال هناك حاجة للتعديل عليها للحصول على كفاءة اكبر
هذه الأطروحة، في الواقع، سوف تقدم نهجا جديدا لتعزيز أداء تدريب الشبكات العصبية متعددة الطبقات والشبكات العصبية العميقة بوجود أكثر من طبقة واحدة خفية عن طريق استخدام خوارزمية جديدة وهو ما يسمى الانتشار الخلفي البصرية الموسع
تستخدم الخوارزمية الجديدة طريقة جديدة عوضا عن تلك السابقة المستخدمة في خوارزمية الانتشار الخلفي البصرية والتي اظهرت رد فعل سريع للتغيرات في قيمة الاوزان عن طريق زيادة سرعة التدريب مع أقل عدد من التكرارات ودون فقدان القدرة تعلم
وقد تم مقارنة وتقييم اداء الخوارزمية عن طريق التجربة في مشكلتين اساسيتين هما: XOR وتصنيف النباتات ايريس
وأظهرت النتائج أن الخوارزمية المقترحة تتقارب إلى نطاق معقول من الخطأ بعد أعداد قليلة من التكرارات.

Text in English, Abstract in Arabic and English.

There are no comments on this title.

to post a comment.