تعرف على سبب كون الشبكات العصبية قوية جدًا ، وكيف وأين يتم استخدامها ، وكيفية البدء - لا حاجة للبرمجة >
يبدو أنه في كل مكان تنظر إليه في الوقت الحاضر ، ستجد مقالًا يصف استراتيجية الاستفادة من خلال استخدام التعلم العميق في مشكلة علوم البيانات ، أو بشكل أكثر تحديدًا في مجال الذكاء الاصطناعي (AI). ومع ذلك ، ليس من السهل الحصول على تفسيرات واضحة للتعلم العميق ، وسبب كونه قويًا جدًا ، والأشكال المختلفة التي يتخذها التعلم العميق في الممارسة العملية.
من أجل معرفة المزيد عن التعلم العميق ، والشبكات العصبية ، والابتكارات الرئيسية ، والنماذج الأكثر استخدامًا ، حيث يعمل التعلم العميق ولا يعمل ، وحتى القليل من التاريخ ، قمنا بطرح بعض الأسئلة الأساسية والإجابة عليها.
ليس هناك فرق. شبكات التعلم العميقة هي شبكات عصبية ، فقط ببنى أكثر تعقيدًا مما كان ممكنًا تدريبه في التسعينات. على سبيل المثال ، تم إدخال وحدات الذاكرة قصيرة المدى (LSTM) في الشبكات العصبية المتكررة (RNNs) في عام 1997 من قبل Hochreiter و Schmidhuber ولكن لم يتم العثور على اعتماد واسع النطاق بسبب الأوقات الحسابية الطويلة والموارد الحسابية العالية المطلوبة. كما كانت المناظير متعددة الطبقات مع أكثر من طبقة مخفية موجودة منذ فترة طويلة ، وكانت فوائدها واضحة. والفرق الرئيسي هو أن الموارد الحسابية الحديثة جعلت تنفيذها ممكناً.
بشكل عام ، سمحت الموارد الحسابية الأسرع والأكثر قوة بتنفيذ وتجربة بنى عصبية أكثر قوة واعدة. من الواضح أن قضاء أيام في التدريب على الشبكة لا يمكن أن ينافس الدقائق القليلة التي قضاها في تدريب نفس الشبكة بمساعدة تسريع GPU.
كان الإنجاز الكبير في عام 2012 عندما فازت شبكة AlexNet القائمة على التعلم العميق بتحدي ImageNet بهامش غير مسبوق. وبلغت نسبة الخطأ الخمسة الأولى في AlexNet 15 في المائة ، بينما انتهى أفضل منافس التالي بنسبة 26 في المائة. بدأ هذا الانتصار طفرة في شبكات التعلم العميق ، وتحقق أفضل النماذج في الوقت الحاضر معدلات خطأ أقل من علامة 3 بالمائة.
يبدو أنه في كل مكان تنظر إليه في الوقت الحاضر ، ستجد مقالًا يصف استراتيجية الاستفادة من خلال استخدام التعلم العميق في مشكلة علوم البيانات ، أو بشكل أكثر تحديدًا في مجال الذكاء الاصطناعي (AI). ومع ذلك ، ليس من السهل الحصول على تفسيرات واضحة للتعلم العميق ، وسبب كونه قويًا جدًا ، والأشكال المختلفة التي يتخذها التعلم العميق في الممارسة العملية.
من أجل معرفة المزيد عن التعلم العميق ، والشبكات العصبية ، والابتكارات الرئيسية ، والنماذج الأكثر استخدامًا ، حيث يعمل التعلم العميق ولا يعمل ، وحتى القليل من التاريخ ، قمنا بطرح بعض الأسئلة الأساسية والإجابة عليها.
ما هو التعلم العميق بالضبط؟
التعلم العميق هو التطور الحديث للشبكات العصبية التقليدية. وبالفعل ، تم إضافة بنيات "أعمق" إلى التغذية الكلاسيكية إلى الأمام ، والمتصلة بالكامل ، والمدربة على الانتشار العكسي ، والمفاهيم متعددة الطبقات (MLPs). أعمق يعني المزيد من الطبقات المخفية وبعض النماذج العصبية الإضافية الجديدة ، كما هو الحال في الشبكات المتكررة والشبكات التلافيفية.ما الفرق بين التعلم العميق والشبكات العصبية؟
ليس هناك فرق. شبكات التعلم العميقة هي شبكات عصبية ، فقط ببنى أكثر تعقيدًا مما كان ممكنًا تدريبه في التسعينات. على سبيل المثال ، تم إدخال وحدات الذاكرة قصيرة المدى (LSTM) في الشبكات العصبية المتكررة (RNNs) في عام 1997 من قبل Hochreiter و Schmidhuber ولكن لم يتم العثور على اعتماد واسع النطاق بسبب الأوقات الحسابية الطويلة والموارد الحسابية العالية المطلوبة. كما كانت المناظير متعددة الطبقات مع أكثر من طبقة مخفية موجودة منذ فترة طويلة ، وكانت فوائدها واضحة. والفرق الرئيسي هو أن الموارد الحسابية الحديثة جعلت تنفيذها ممكناً.
هل التعلم العميق يعتمد بشكل أساسي على الموارد الحسابية الأسرع والأكثر قوة؟
بشكل عام ، سمحت الموارد الحسابية الأسرع والأكثر قوة بتنفيذ وتجربة بنى عصبية أكثر قوة واعدة. من الواضح أن قضاء أيام في التدريب على الشبكة لا يمكن أن ينافس الدقائق القليلة التي قضاها في تدريب نفس الشبكة بمساعدة تسريع GPU.
ما هو المشروع الخارق الذي أثار شعبية التعلم العميقة؟
كان الإنجاز الكبير في عام 2012 عندما فازت شبكة AlexNet القائمة على التعلم العميق بتحدي ImageNet بهامش غير مسبوق. وبلغت نسبة الخطأ الخمسة الأولى في AlexNet 15 في المائة ، بينما انتهى أفضل منافس التالي بنسبة 26 في المائة. بدأ هذا الانتصار طفرة في شبكات التعلم العميق ، وتحقق أفضل النماذج في الوقت الحاضر معدلات خطأ أقل من علامة 3 بالمائة.
ليست هناك تعليقات
إرسال تعليق