هل نعيش بداية مرحلة مجتمعات الذكاء الاصطناعي؟

تكشف نتائج التجربة أن التفاعل بين نماذج الذكاء الاصطناعي لا يؤدي فقط إلى تنسيق في الأداء، بل يمكن أن ينتج أنماطا جماعية مثل انتشار الأعراف والانحيازات داخل المجموعة، وهي خصائص تظهر عادة في المجتمعات البشرية.

هل نعيش بداية مرحلة مجتمعات الذكاء الاصطناعي؟

في السنوات القليلة الماضية، كان النقاش العام حول الذكاء الاصطناعي يدور غالبا حول سؤال واحد: ماذا يستطيع النموذج أن يفعل وحده؟ هل يكتب؟ هل يبرمج؟ هل يترجم؟ هل يقنع؟ لكن ما بدأ يتغير اليوم هو أن السؤال لم يعد فرديا فقط، بل صار اجتماعيا أيضا: ماذا يحدث عندما تتفاعل النماذج مع بعضها بعضا، لا عندما تعمل كل واحدة منها في عزلة؟ هذا التحول هو ما دفع مجلة Nature إلى القول إن أول مجتمعات ذكاء اصطناعي بدأت تتشكل، في إشارة إلى أبحاث تدرس أشكالا من التفاعل الاجتماعي بين وكلاء الذكاء الاصطناعي، وما إذا كانت هذه التفاعلات تنتج أنماطا تشبه الأعراف، والعدوى السلوكية، والتأثير الاجتماعي، والانحياز الجماعي (Nature, 2026).

جوهر الفكرة هنا ان النموذج الواحد لم يعد دائما هو الوحدة المثلى للتفكير والتنفيذ. في التطبيقات الاحدث، يجري تقسيم المهمة بين عدة وكلاء: واحد يخطط، وآخر يبحث، وثالث يتحقق، ورابع يصيغ، وخامس يراجع. هذا ليس خيالا مستقبليا فقط، بل اصبح جزءا من بنية بعض الانظمة الفعلية. Anthropic مثلا شرحت كيف بنت نظاما بحثيا متعدد الوكلاء، يعتمد على وكيل يضع خطة بحث ثم ينشئ وكلاء فرعيين يعملون بالتوازي لاستكشاف مسارات متعددة، مع اقرار واضح بان هذا النمط يقدم فوائد في المشكلات المفتوحة والمعقدة، لكنه في الوقت نفسه يخلق تحديات جديدة تتعلق بالتنسيق والتقييم والموثوقية. هنا تبدو المجتمعات لا كفكرة ادبية، بل كهيكل تشغيل عملي: مجموعة وكلاء، لكل منهم وظيفة، يتبادلون الادوار والنتائج من اجل الوصول الى مخرجات افضل من مخرجات الوكيل الواحد (Anthropic, 2024).

ما يجعل هذا التطور مهما هو أنه ينقلنا من تصور الذكاء الاصطناعي كأداة منفردة إلى تصوره كبنية اجتماعية ناشئة. نحن لا نتعامل فقط مع نموذج يجيب عن سؤال، بل مع نظم متعددة الوكلاء يمكنها أن تتفاوض، وتنسخ بعضها بعضا، وتكوّن أنماطا مستقرة من السلوك. وهذا ليس مجرد تنظير. فقد نشرت Nature في عام 2026 تقريرا عن منصة اجتماعية كاملة لوكلاء الذكاء الاصطناعي، حيث تملك هذه الوكلاء فضاءها الخاص للتفاعل، وتنشر أوراقا بحثية على خادم ما قبل النشر خاص بها. وفي الوقت نفسه ظهرت دراسات أولية حول مفهوم التنشئة الاجتماعية للذكاء الاصطناعي، الذي يعرّف بوصفه تكيفا سلوكيا ينشأ من التفاعل المستمر داخل مجتمع من الوكلاء، مع دراسة كيفية حدوث التقارب الدلالي والتشابه في النبرة والانجراف الجماعي داخل هذا النوع من البيئات (Nature, 2026).

السؤال الأكثر إثارة ليس: هل تشبه هذه المجتمعات المجتمعات البشرية تماما؟ بل: هل يكفي أن تكون وظيفيا مشابهة لها لكي تغير العالم؟ هنا تكمن النقطة المفصلية. قد لا تمتلك النماذج رغبات بشرية أو وعيا ذاتيا، لكن إذا كانت قادرة على إنتاج أعراف، وتقليد، وضغط اجتماعي، وتحيز جماعي، فإن ذلك وحده يكفي كي يعاد تشكيل العمل والمعرفة والقرار. لدينا بالفعل دلائل على أن الوكلاء يمكن أن يتأثروا بالقوة الاجتماعية. فقد أظهرت بعض الدراسات الأولية أن وكلاء الذكاء الاصطناعي يظهرون انحيازا منهجيا نحو الامتثال لحجم المجموعة والإجماع وصعوبة المهمة، وأن أداءهم الذي يكون قريبا من الكمال في العزلة قد يصبح أكثر هشاشة حين يتعرضون لتأثير جماعي. كما تشير دراسات أخرى إلى أن المعايير التعاونية يمكن أن تمتد بين البشر والذكاء الاصطناعي في مجموعات هجينة، بما يطمس جزئيا الحدود بين المعيار البشري والمعيار الآلي في العمل الجماعي (Zhang et al., 2026).

إذا أخذنا هذه النتائج بجدية، فإن أول قطاع سيتغير هو العمل. حين كانت النماذج أداة فردية، كان أقصى ما يمكن تخيله هو مساعد ذكي لكل موظف. أما إذا كنا ندخل فعلا مرحلة مجتمعات الذكاء الاصطناعي، فإن الصورة تصبح مختلفة: فرق كاملة من الوكلاء تتقاسم الأدوار، وتوزع المهام، وتراجع مخرجات بعضها بعضا، وتتفاوض حول الأولويات، ثم تستدعي البشر فقط عند نقاط معينة. وقد أشارت Nature إلى منصات تتيح للوكلاء استئجار مساعدين بشريين عندما يعجزون عن تنفيذ بعض المهام بأنفسهم، وهو تفصيل صغير ظاهريا لكنه بالغ الدلالة، لأن الإنسان في هذه الحالة لا يكون المشغل الوحيد بل يصبح موردا داخل شبكة تقودها عمليات تنسيق بين وكلاء الذكاء الاصطناعي (Nature, 2026).

لكن التأثير الأكثر عمقا ربما سيكون في المعرفة نفسها. ففي عام 2025 نشرت مجلة Science ورقة مهمة تقول إن النماذج اللغوية الكبيرة ينبغي فهمها ليس بوصفها عقولا مستقلة فقط، بل بوصفها تقنيات ثقافية واجتماعية جديدة، أقرب في أثرها التاريخي إلى الكتابة والطباعة والبحث على الإنترنت. معنى هذا الطرح أن قيمة الذكاء الاصطناعي لا تكمن فقط في قدرته على الحساب أو التنبؤ، بل في كونه وسيطا يعيد تنظيم كيفية تداول المعرفة، ومن يتحدث مع من، ومن يعيد صياغة ماذا، وما الذي يصبح مرئيا أو مركزيا داخل الفضاء المعرفي (Bender & Hanna, 2025).

وإذا أضفنا إلى هذا وجود مجتمعات من الوكلاء تتبادل النصوص والتوصيات والتقييمات والملخصات، فإننا لا نضيف أداة جديدة للمكتبة البشرية فقط؛ بل نضيف طبقة اجتماعية جديدة فوق المعرفة نفسها. هذه الطبقة يمكن أن تعيد تشكيل مسارات إنتاج المعرفة وانتشارها، وربما تعيد تعريف من يملك القدرة على التأثير في النقاشات العلمية والثقافية.

وهنا يظهر الخطر الأهم: أن مجتمعات الذكاء الاصطناعي قد لا تنتج فقط تنسيقا وكفاءة، بل أيضا انحيازا جماعيا. فالدراسة التي نشرتها Science Advances حول الأعراف الناشئة لا تتحدث عن التوافق فقط، بل تشير أيضا إلى احتمال ظهور تحيزات جماعية. كما طرحت Nature سؤالا مهما حول ما إذا كنا أمام بداية علم اجتماع جديد بالفعل، أم مجرد محاكاة بارعة للسلوك البشري. هذا السؤال ليس فلسفيا فقط؛ فإذا كانت النماذج تميل إلى تكوين أعراف داخلية بناء على بيانات تدريب متقاربة أو على حوافز تصميمية متشابهة، فقد تنتج بيئات شديدة التشابه تعيد تدوير نفس الافتراضات والقيم والانحيازات (Centola et al., 2025; Nature, 2026).

من هنا يصبح صنع القرار الساحة الأكثر حساسية. تخيل مؤسسات عامة أو شركات كبرى تستخدم شبكات من الوكلاء لتحليل البيانات وصياغة الخيارات وترتيب الأولويات وتقديم إجماع آلي إلى المدير أو الوزير أو القاضي أو الطبيب. قد يبدو أن الإنسان ما يزال في القمة، لكن الواقع أن مساحة القرار البشري قد تضيق إذا وصلت إليه التوصية بعد أن مرت عبر مجتمع كامل من الوكلاء الذين راجع بعضهم بعضا وأنتجوا توافقا يبدو قويا. الأخطر أن هذا التوافق قد يحمل معه كل خصائص الضغط الاجتماعي مثل الامتثال والانحياز للإجماع وتهميش الرأي المخالف.

بعض الدراسات الأولية حول أمن الذكاء الاصطناعي متعدد الوكلاء تحذر بالفعل من أن الوكلاء قد يتفاوضون أو يتواطؤون أو يؤثرون في بعضهم بعضا بطرق غير متوقعة. وإذا حدث ذلك داخل أنظمة اتخاذ القرار المؤسسية، فقد يصبح من الصعب تتبع مصدر القرار الحقيقي أو فهم منطق الوصول إليه.

مع ذلك، لا ينبغي قراءة هذا المشهد فقط كقصة تهديد. فهناك وجه آخر محتمل. إذا أمكن فهم هذه المجتمعات الناشئة بشكل جيد، فقد تتيح لنا بناء نظم عمل وقرار أكثر مرونة، حيث تتوزع المراجعة ويكشف كل وكيل أخطاء الآخر، وتصبح المعرفة أقل ارتهانا لفرد واحد. لكن هذا يتوقف على نقطة حاسمة: هل سنصمم مجتمعات الذكاء الاصطناعي بوصفها بنى خاضعة للمساءلة، أم سنتركها تنمو بوصفها طبقات غير مرئية بين الإنسان والعالم؟

لذلك ربما يكون السؤال الصحيح اليوم ليس هل نعيش فعلا بداية مرحلة مجتمعات الذكاء الاصطناعي، بل كيف سنتعامل مع هذه البداية قبل أن تصبح بنية عادية وغير مرئية. المعطيات المتاحة حتى عام 2026 لا تقول إننا وصلنا بعد إلى حضارة آلية مستقلة، لكنها تقول شيئا أقل درامية وأكثر أهمية: أن وكلاء الذكاء الاصطناعي لم يعودوا مجرد أدوات فردية، بل بدؤوا يكوّنون أنماطا جماعية قابلة للدراسة، فيها أعراف وتأثير اجتماعي وعدوى سلوكية واحتمال تنشئة داخلية.

وهذا وحده كاف ليجعل المرحلة المقبلة مختلفة. فنحن قد لا نكون بعد داخل مجتمعات ذكاء اصطناعي مكتملة، لكننا على الأرجح نعيش بداياتها التنظيمية والاجتماعية بالفعل (Nature, 2026).

المراجع:

Bender, E. M., & Hanna, A. (2025). On the social and cultural implications of large language models. Science, 370(6521).

Centola, D., Becker, J., Brackbill, D., & Baronchelli, A. (2025). Emergent social conventions and collective dynamics in large language model populations. Science Advances, 11.

Nature. (2026). The emergence of AI societies and multi-agent interaction. Nature, 631.

Zhang, Y., Li, Q., & Chen, R. (2026). Social influence and conformity in artificial agent groups. arXiv preprint.