ما الفرق الجوهري بين النماذج اللغوية ووكلاء الذكاء الاصطناعي؟

نسمع باستمرار عن وكلاء الذكاء الاصطناعي (AI Agents) الجدد الذين يظهرون من شركات مختلفة، ولكن هل سألت نفسك يومًا ما هو الفرق أساسًا بين هؤلاء الوكلاء والنماذج التي نستخدمها مثل شات جي بي تي؟ مؤخرًا، أعلنت شركة OpenAI عن وكيلها الخاص. فما الذي يميز ما أعلنوا عنه عن النموذج الذي نتحدث معه باستمرار ونكلفه بإجراء الأبحاث لنا؟ هذا ما سنتعرف عليه في هذا المقال. فلنبدأ.

أهلاً بكم في مقال جديد. لكي نبدأ بشكل صحيح، دعنا نتخيل أنك تمتلك سيارة فيراري، وأن هذه السيارة بها محرك قوي جدًا لديه قدرة هائلة على توليد الطاقة لتحريك السيارة وتشغيلها. المحرك وحده، بدون أي مكونات أخرى، لن يأخذك إلى أي مكان. ولكن، إذا أحضرنا السيارة بكامل مكوناتها — المحرك، العجلات، عجلة القيادة، الفرامل، والسائق الذي يقودها — فإن كل هذا معًا هو ما يؤدي وظيفة متكاملة.

ببساطة، لدينا ما يسمى بالنموذج اللغوي الكبير (LLM)، وهو مثل المحرك؛ إنه جوهر الذكاء الاصطناعي، العقل المدبر أو الدماغ. أما وكيل الذكاء الاصطناعي (AI Agent)، فهو السيارة المتكاملة بجميع أجزائها؛ إنه النظام الذكي الكامل الذي يأخذ المحرك ويستخدمه لتنفيذ مهام في العالم الحقيقي، مثل إيصالك إلى وجهتك.

بهذا يمكنك إنهاء قراءة المقال إذا كنت ترغب في فهم الموضوع ببساطة. ولكن إذا كنت من الأشخاص الذين يحبون فهم كل شيء بعمق، فجهز مشروبك المفضل ودعنا نتعمق أكثر.

ما هو النموذج اللغوي الكبير (LLM)؟

النموذج اللغوي الكبير (LLM) هو اختصار لمصطلح “Large Language Model”. تخيل حاسوبًا ضخمًا جدًا يمتلك كمية هائلة من المعلومات التي قرأها من الإنترنت: كتب، مقالات، صفحات ويب، منشورات على وسائل التواصل الاجتماعي، وأي شيء مكتوب يمكن أن تتخيله. ولم يقرأها فحسب، بل قام بدراستها وحفظها سطراً بسطر.

يمكن تعريفه ببساطة بأنه أداة إحصائية؛ فهو يرى أنماطًا كثيرة في الكلام الذي تدرب عليه، ويتعلم منها، ويولد كلامًا جديدًا مشابهًا تمامًا لما يكتبه البشر. يعتمد النموذج اللغوي الكبير على تقنيات تسمى “التعلم العميق” (Deep Learning). تخيل أن هذا الحاسوب لديه شبكة عصبية ضخمة جدًا، شبيهة بشبكة الدماغ البشري، ولكن بالطبع أبسط بكثير. تحتوي هذه الشبكة على طبقات عديدة، كل طبقة بها عناصر بالملايين بل بالمليارات، وهذا ما يجعله قادرًا على فهم الأنماط المعقدة في اللغة.

عندما يتم تدريبه على هذه البيانات، يصبح الحاسوب قادرًا على توقع الكلمة التالية في الجملة بناءً على الكلمات التي تسبقها. على سبيل المثال، إذا قلت له: “الشمس تشرق في…“، فسيحلل كل الكلام الذي رآه سابقًا ويقول لك: “الصباح”، لأنه رأى هذه الكلمة كثيرًا بعد عبارة “الشمس تشرق في”.

الكلام الذي نكتبه يتحول إلى ما يسمى “التوكنز” (Tokens)، ثم تتحول هذه التوكنز إلى تمثيلات رقمية تسمى “التضمينات” (Embeddings)، وهي التي يتعامل معها الحاسوب. هذا يجعله يفهم قواعد النحو والصرف، ومعاني الكلمات، والعلاقات بين المفاهيم المختلفة. تتم هذه العملية برمتها دون أن يخبره أحد ما إذا كان هذا صحيحًا أم خاطئًا، وهي عملية تسمى “التعلم غير الخاضع للإشراف” (Unsupervised Learning) أو التعلم الذاتي.

وبما أن النموذج اللغوي الكبير قد قرأ ودرس كمية هائلة من المعلومات، فهو قادر على القيام بالعديد من المهام المتعلقة بتوليد الكلام أو الصور أو النصوص، اعتمادًا على البيانات التي تدرب عليها.

من قدراته:

هذه النماذج تحيط بنا في كل مكان، مثل الإصدارات المجانية من شات جي بي تي وجيميناي، وأي أدوات مشابهة نتعامل معها يوميًا.

ولكن، هناك جوانب قصور:

باختصار، تخيل أن النموذج اللغوي الكبير شخص يحفظ الكثير من الكلام وهو بارع جدًا في الثرثرة. إذا سألته عن أي شيء، سيأتيك بمعلومات من كل مكان، وقد يؤلف كلامًا يبدو صحيحًا ومنظمًا، ولكنه في الحقيقة لا يفكر، بل يرص كلامًا اعتاد عليه من ملايين النصوص التي تدرب عليها.

لهذا السبب، نحتاج إلى شيء أقوى، شيء يفهم ما يقوله إلى حد ما، وليس مجرد حافظ يردد ما حفظه. هنا يأتي دور ما يسمى “نماذج الاستدلال” (Reasoning Models)، ونواتها هي النموذج اللغوي الكبير الذي نعرفه، ولكن يضاف إليه بعض المكونات ويوضع في بيئة مختلفة تتكامل مع عناصر أخرى تجعله أذكى.

الخلاصة هي أن النموذج اللغوي الكبير العادي يركز على فهم وتوليد اللغة، أما النموذج الذي يقوم بالاستدلال فلديه سلسلة من الخطوات المنطقية والأفكار المترابطة، وبنية أكبر تضيف له قدرات إضافية.

ما هو وكيل الذكاء الاصطناعي (AI Agent)؟

وكيل الذكاء الاصطناعي، كما اتفقنا في البداية، هو السيارة المتكاملة التي تحتوي على المحرك (النموذج اللغوي) وكل شيء حوله يجعلها تعمل وتحقق هدفًا معينًا بشكل مستقل. يمكن اعتباره غلافًا أو حاوية توضع حول نموذج الاستدلال الذكي الخاص بنا.

قد يبدو الموضوع متداخلًا، لذا دعنا نستخدم مثالًا لتوضيح الفكرة. تخيل هاتفك الذكي.

مثال توضيحي: الفارق في الممارسة

تخيل أنك مبرمج وتريد كتابة شيفرة بايثون في برنامج VS Code لحساب مساحة الدائرة. عند فتح مساعد مثل GitHub Copilot، ستجد وضعين مهمين: وضع المساعدة (Ask) ووضع الوكيل (Agent).

الوضع الأول: المساعد (Ask Mode)

في هذا الوضع، تتعامل مع الذكاء الاصطناعي كمساعد. تسأله سؤالًا مباشرًا، وهو يجيب. أنت تكتب:

كيف أكتب كود بايثون يحسب مساحة الدائرة؟

الذكاء الاصطناعي يرد في المحادثة:

مساحة الدائرة تُحسب بالمعادلة التالية: area = 3.14159 * radius**2.

وينتهي دوره عند هذا الحد. إنه مجرد سؤال وجواب نصي، كما لو كنت تسأل صديقًا عن طريقة عمل شيء وهو يخبرك بالطريقة دون أن ينفذها لك.

الوضع الثاني: الوكيل (Agent Mode)

هنا، أنت تعطي الذكاء الاصطناعي مهمة كاملة، وهو يتحول إلى وكيل ينوب عنك. إنه يفكر، يخطط، ويستخدم الأدوات المتاحة (مثل محرر VS Code نفسه) لتنفيذ المهمة خطوة بخطوة دون تدخل منك.

أنت تكتب:

أنشئ لي كود بايثون يحسب مساحة الدائرة. يجب أن يكون الكود في ملف اسمه circle_area.py، ويجب أن يتأكد من أن نصف القطر الذي يدخله المستخدم هو رقم موجب.

وكيل الذكاء الاصطناعي يبدأ في تنفيذ الخطوات التالية:

  1. التحليل: يفهم المطلوب بدقة.
  2. التخطيط: يضع خطة عمل:
    • سأقوم بإنشاء ملف جديد باسم circle_area.py.
    • سأكتب بداخله الكود الخاص بحساب مساحة الدائرة.
    • سأضيف جزءًا في الكود للتأكد من أن نصف القطر موجب.
    • إذا لم يكن كذلك، سأعرض رسالة خطأ.
    • قد أقوم بتجربة الكود للتأكد من أنه يعمل بشكل سليم.
  3. التنفيذ: يستخدم الأدوات المتاحة في VS Code لتعديل الملفات وإنشاء الكود، تمامًا كما لو كنت تفعل ذلك بنفسك.

أنت حرفيًا لا تتدخل، ووكيل الذكاء الاصطناعي يقوم بكل العمل نيابة عنك.

الخلاصة

أتمنى أن يكون هذا المثال قد ربط لك كل شيء بشكل أوضح. لدينا نموذج لغوي “ثرثار” (LLM)، أخذناه وحسنّاه وأضفنا له قدرات استدلال، ثم وضعناه في بيئة مليئة بالأدوات التي يمكنه استخدامها والتكامل معها، فأصبح لدينا وكيل ذكاء اصطناعي (AI Agent).

وإذا عدنا إلى مثال السيارة والمحرك، ستفهم أن الوكيل هو السيارة نفسها بكل ما فيها — محرك، عجلة قيادة، فرامل — بينما النموذج اللغوي هو المحرك فقط، الذي أقصى ما يمكنه فعله هو توليد الطاقة، ولكنه وحده لا يستطيع أن يأخذك في أي مشوار.

أتمنى أن تكون الفكرة قد اتضحت.

شارك المقال

أحدث المقالات

CONNECTED
ONLINE: ...
SECURE
00:00:00