كيف يتنبأ النموذج؟
آلية Transformers والانتباه
سارة توجه أحمد لشاشة كبيرة: سارة: "شوف هذا الرسم. كل مربع هو 'توكن' - قطعة صغيرة من النص." أحمد: "يعني الكلمة؟" سارة: "أحياناً. لكن كلمة مثل 'مستشفى' قد تكون 2-3 توكنز. والنموذج يرى النص كسلسلة أرقام، ليس حروف." أحمد: "غريب... طيب كيف يفهم المعنى؟" سارة: "هنا السحر الحقيقي - آلية الـ Attention..."
🔬 Transformers: الثورة الحقيقية
قبل 2017، النماذج كانت تقرأ النص كلمة كلمة (بطيء جداً). ورقة "Attention Is All You Need" غيرت كل شيء: الآن النموذج يرى كل الكلمات معاً ويفهم العلاقات بينها. مثال: "البنك قريب من النهر" "أودعت المال في البنك" النموذج يفهم أن "البنك" في الجملة الأولى = ضفة وفي الثانية = مؤسسة مالية هذا بسبب الـ Attention: يركز على الكلمات المحيطة لفهم السياق.
ببساطة
قبل 2017: الذكاء الاصطناعي كان يقرأ كلمة كلمة - مثل شخص يتعلم لغة جديدة ويترجم كل كلمة على حدة. بعد 2017: أصبح يرى الجملة كاملة دفعة واحدة - مثل شخص يتكلم اللغة بطلاقة ويفهم المعنى من السياق. لا تحتاج تفهم التفاصيل التقنية الآن. المهم تعرف أن هذا التطور هو سبب قوة ChatGPT وأخواته.
