في الأونة الأخيرة بدأ كثير من المستخدمين يلاحظون ظاهرة لافتة: عند طرح نفس السؤال على نماذج ذكاء اصطناعي مختلفة، مثل ChatGPT أو Gemini أو غيرهما، غالباً ما تكون الإجابات متقاربة، بل أحياناً متطابقة في الفكرة والأسلوب. هذه الظاهرة ليست مصادفة، بل نتيجة مباشرة لطبيعة هذه النماذج وطريقة بنائها.
نماذج الذكاء الاصطناعي لا تبتكر المعرفة من العدم، بل تتعلم من بيانات ضخمة مأخوذة من الإنترنت: مقالات، كتب، منتديات، وأبحاث. وبما أن هذه المصادر متشابهة إلى حد كبير، فإن النماذج تصل إلى أنماط إجابة متقاربة. بعبارة أدق: هي لا “تفكر” كما يفعل الإنسان، بل “تتنبأ” بما يُحتمل أن يكون الجواب الأكثر منطقية بناءً على ما تعلمته.
الإنسان يجيب انطلاقاً من خبرته، مزاجه، بيئته، وحتى تحيزاته. أما الذكاء الاصطناعي، فلا يمتلك أي تجربة ذاتية. لذلك، حين يُسأل عن موضوع معين، فإنه يميل إلى إنتاج إجابة “قياسية” تمثل المتوسط العام للمعرفة البشرية، وليس رؤية فردية مميزة. وهذا أحد الأسباب الجوهرية للتشابه
تُدرَّب هذه النماذج على إعطاء إجابات مفهومة، متوازنة، وآمنة. هذا يعني أنها:
والنتيجة: أسلوب موحّد نسبياً، حتى لو اختلفت الشركات المطوّرة.
الشركات لا تترك النماذج تعمل بحرية مطلقة، بل تفرض عليها سياسات وضوابط (أخلاقية وقانونية). هذه الضوابط تجعل النماذج:
وهذا يزيد من التشابه بين مخرجاتها.
رغم الانطباع السائد، فإن هذه النماذج لا “تخترع” أفكاراً جديدة بالمعنى الحقيقي، بل تعيد تركيب ما تعلمته بطرق مختلفة. لذلك، عندما يكون السؤال شائعاً، تكون الإجابة أيضاً ضمن نطاق ضيق من الاحتمالات المتوقعة.
ليس بالضرورة.
تشابه إجابات الذكاء الاصطناعي ليس دليلاً على ضعفها، بل على طبيعتها. هي أنظمة تعتمد على:
ولذلك، فهي تصل غالباً إلى نفس النتائج.
لكن الاختلاف الحقيقي لا يأتي من النموذج نفسه، بل من طريقة طرح السؤال. كلما كان السؤال عميقاً، دقيقاً، أو غير تقليدي زادت فرصة الحصول على إجابة مختلفة فعلاً.
Powered By Dr.Marwan Mustafa