الرئيسية قاعدة المعرفة أسس الذكاء الاصطناعي كيف يتعلم الذكاء الاصطناعي؟
أسس الذكاء الاصطناعي

كيف يتعلم الذكاء الاصطناعي؟

رسم شبكة عصبية اصطناعية: 3 طبقات مدخلات ومخفية ومخرجات مع الأوزان

التعلم: ماذا يعني؟

حين نقول "الذكاء الاصطناعي يتعلم"، ماذا نعني بالضبط؟ التعلم الآلي (Machine Learning) هو عملية إيجاد نمط في البيانات بشكل تلقائي بدلاً من برمجة القواعد يدوياً.

بدلاً من كتابة قواعد يدوية لكل حالة:

A[قراءة الحساسات] --> B{الحرارة > 80°C؟}
B -->|نعم| C[خطر]
B -->|لا| D{الاهتزاز > 5mm/s؟}
D -->|نعم| C
D -->|لا| E{التيار > 1.2× اسمي؟}
E -->|نعم| C
E -->|لا| F[طبيعي]

النموذج يتعلم من بيانات تاريخية حيث "هذه القراءات → عطل بعد ساعتين" ويُعمّم على حالات جديدة.

الانحدار الخطي: أبسط تعلم

لنبدأ بمثال: لديك بيانات درجة حرارة محرك وعمره. تريد تنبؤ درجة الحرارة بناءً على العمر.

البيانات:

عمر (ساعات) | درجة حرارة (°C)
100          | 65
500          | 72
1000         | 78
2000         | 85
3000         | 94

نريد إيجاد خط يمر أقرب ما يمكن من هذه النقاط:

درجة_الحرارة = a × العمر + b

حيث a وb نحدد أفضل قيمة لهما من البيانات.

هذا هو الانحدار الخطي — أبسط نموذج تعلمي. لكن الواقع نادراً ما يكون خطياً.

دالة الخسارة: كيف نقيس الخطأ؟

لإيجاد أفضل خط، نحتاج مقياساً للخطأ. الأشهر هو MSE (متوسط مربع الخطأ):

MSE = (1/n) × Σ(القيمة_الفعلية - القيمة_المتنبأ_بها)²

هدف التعلم: تقليل MSE بإيجاد القيم المثلى لـ a وb.

الانحدار التدريجي: المشي نحو الحل

Gradient Descent هو الخوارزمية الأساسية لتدريب معظم نماذج الذكاء الاصطناعي.

تخيّل أنك في جبل وتريد الوصول للوادي (أدنى نقطة = أقل خطأ). الخطوة:

  1. قِس الميل عند موقعك الحالي (احسب المشتقة / الـ Gradient)
  2. تحرّك خطوة صغيرة في الاتجاه المنحدر
  3. كرر حتى تصل الوادي (الخطأ لا يتحسن أكثر)

رياضياً:

a_جديد = a_قديم - معدل_التعلم × (∂MSE/∂a)

معدل التعلم (Learning Rate): إذا كبر جداً تقفز فوق الوادي، إذا صغر جداً تتحرك ببطء شديد.

التصنيف والانحدار

الانحدار (Regression): تنبؤ برقم مستمر (درجة حرارة، الطاقة المستهلكة)

التصنيف (Classification): تنبؤ بفئة (طبيعي/خطر، نوع العطل)

الانحدار اللوجستي: يُنتج احتمالاً بين 0 و1 — "احتمال العطل = 87%"

الشبكة العصبية: وحدة النيورون

مستوحاة من الدماغ البشري. الوحدة الأساسية هي النيورون الاصطناعي:

المخرج = f( w1×x1 + w2×x2 + ... + wn×xn + b )

أو بصيغة مختصرة:

y = f( Σ(wi × xi) + b )

حيث:

  • x1...xn = المدخلات
  • w1...wn = الأوزان (ما يتعلمه النموذج)
  • b = التحيز (Bias)
  • f = دالة التفعيل (تُضيف اللاخطية)

دوال التفعيل الشائعة

ReLU — الأبسط والأكثر استخداماً:

f(x) = max(0, x)

Sigmoid — يحوّل إلى احتمال (0-1):

f(x) = 1/(1 + e^-x)

Tanh — بين -1 و1:

f(x) = (e^x - e^-x)/(e^x + e^-x)

بدون دالة التفعيل، الشبكة مهما عمقت تبقى خطية (ولا يُفيدها التعمق).

طبقات الشبكة العصبية

شبكة عصبية عميقة تتكون من:

[طبقة الإدخال] → [طبقات مخفية] → [طبقة الإخراج]

طبقة الإدخال: تستقبل البيانات الخام (قراءات الحساسات، بيانات الصورة)

الطبقات المخفية: كل طبقة تتعلم تمثيلات أكثر تجريداً:

  • الطبقة الأولى: أنماط بسيطة (حافة، تذبذب)
  • الطبقة الثانية: مجموعات من الأنماط
  • الطبقات العميقة: مفاهيم معقدة

طبقة الإخراج: النتيجة النهائية (تصنيف أو قيمة)

التدريب والـ Backpropagation

التدريب = تعديل الأوزان لتقليل الخطأ.

الـ Backpropagation (الانتشار الخلفي) هو خوارزمية التدريب:

  1. مرّر البيانات من الأمام (Forward Pass) → احسب المخرج
  2. احسب الخطأ مقارنةً بالقيمة الفعلية
  3. انتشر الخطأ للخلف (Backward Pass) → احسب مساهمة كل وزن في الخطأ
  4. عدّل الأوزان بنسبة مساهمتها (Gradient Descent)
  5. كرر ملايين المرات على ملايين الأمثلة

الإفراط في التكيف والتعميم

Overfitting: النموذج حفظ بيانات التدريب بدقة لكنه يفشل على بيانات جديدة — مثل طالب حفظ نماذج الامتحانات دون فهم.

Underfitting: النموذج بسيط جداً ولم يلتقط النمط الأساسي.

الحل: تقسيم البيانات:

  • بيانات تدريب (70%): لتعليم النموذج
  • بيانات تحقق (15%): لضبط المعاملات ومنع Overfitting
  • بيانات اختبار (15%): لتقييم الأداء الحقيقي على بيانات لم يرها

التطبيقات الصناعية

الصيانة التنبؤية (Predictive Maintenance):

  • المدخلات: اهتزاز، حرارة، تيار، ضغط، ساعات التشغيل
  • المخرج: احتمال العطل خلال 7 أيام
  • الفائدة: صيانة قبل التوقف، توفير آلاف الدولارات

كشف العيوب البصري (Visual Defect Detection):

  • كاميرا تراقب المنتجات على الناقل
  • شبكة عصبية تصنف: جيد / معيب / نوع العيب
  • دقة تتجاوز الفحص البشري وبشكل مستمر دون تعب

التحكم التكيّفي (Adaptive Control):

  • النموذج يتعلم ديناميكيات العملية الفعلية
  • يُعدّل معاملات التحكم تلقائياً للظروف المتغيرة

استهلاك الطاقة:

  • تنبؤ باستهلاك الطاقة لجدولة أوقات الذروة
  • تحسين توزيع الحمل بين الآلات

الخلاصة

الذكاء الاصطناعي لا يُفكّر — يجد أنماطاً في البيانات. الانحدار الخطي هو الحالة الأبسط، والشبكات العصبية العميقة هي الأكثر قوة. كل النماذج تتعلم عبر نفس المبدأ: قياس الخطأ، تعديل الأوزان، تكرار الملايين من المرات. فهم هذا المبدأ يُمكّن من اختيار النموذج الصحيح وتقييم النتائج بشكل نقدي.

AI machine-learning neural-networks gradient-descent backpropagation training الذكاء الاصطناعي التعلم الآلي الشبكات العصبية الانحدار الخطي دالة الخسارة الصيانة التنبؤية