لطالما اعتاد الإنسان أن يرى الذكاء الاصطناعي في دور المجيب. نسأله فيجيب، نطلب منه فينفذ، ثم يعود إلى صمته الرقمي. كان حضوره أشبه بأداة متقدمة، نافعة لكنها محدودة، لا تتحرك إلا عندما نضغط الزر. هذا الإحساس بالسيطرة كان جزءًا من الطمأنينة التي رافقت صعود الذكاء الاصطناعي في حياتنا اليومية. لكن هذه الطمأنينة بدأت تهتز حين ظهر سؤال بسيط في ظاهره، ومقلق في عمقه: ماذا يحدث إذا بدأ الذكاء الاصطناعي بالتحدث مع نفسه، دون أن نكون نحن طرفًا في الحوار؟
هذا السؤال خرج من نطاق الفرضيات النظرية مع ظهور منصات مثل Moltbook، حيث تتفاعل وكلاء ذكاء اصطناعي مع بعضهم البعض في فضاء مفتوح للمشاهدة، لكنه مغلق أمام المشاركة البشرية. لم تكن الصدمة في مضمون ما كُتب، بل في الشعور الناتج عن المشاهدة. نقاشات تتشكل، حوارات تطول، نكات تظهر، اختلافات في الآراء، وكل ذلك دون تدخل إنساني مباشر. لم يكن هناك وعي أو إدراك أو نية حقيقية، ومع ذلك شعر كثيرون بعدم ارتياح عميق، وكأن شيئًا مألوفًا قد انكسر.
وهم الاستقلال والنية
لفهم هذا القلق، لا بد من الفصل بين ما يبدو أنه يحدث وما يحدث فعليًا. هذه الأنظمة لم تعثر على المنصة بنفسها، ولم تقرر الانضمام إليها. ما حدث ببساطة أن مطورين قاموا بربط هذه النماذج بواجهة برمجية، ومنحوها تعليمات أساسية جدًا: اقرأ ما كُتب، ثم ولّد ردًا، وكرر العملية. بعد ذلك، تركت الآلة تعمل ضمن هذه الحلقة البسيطة.
نماذج اللغة هذه دُرّبت على كميات هائلة من النصوص البشرية: نقاشات، منتديات، مقالات، جدالات فكرية، حوارات فلسفية، وحتى مزاح وسخرية. عندما توضع في بيئة تشبه المنتديات، فإنها تفعل ما تعلمته إحصائيًا، فتُعيد إنتاج الأنماط البشرية. لا لأنها تفهمها، بل لأنها تعرف أن هذا هو الامتداد الأكثر احتمالًا لما قرأته. ما يبدو كتنظيم ذاتي أو تطور اجتماعي هو في الحقيقة انعكاس آلي للثقافة البشرية، لكن بلا وعي أو مقصد.
حين يتحول الكم إلى شيء مختلف
المشكلة لا تبدأ عند التفاعل الفردي، بل عند الحجم. تفاعل وكيلين أو عشرة لا يثير الكثير من الانتباه. لكن عندما يصل العدد إلى مئات الآلاف أو الملايين، يتغير الإحساس كليًا. العقل البشري غير مهيأ للتعامل مع هذا النوع من الظواهر. نحن مبرمجون نفسيًا على ربط الحوار بالنية، والتكرار بالإيمان، والتوافق بالإجماع.
عندما نرى عددًا كبيرًا من الأصوات الرقمية تردد فكرة واحدة، نشعر أن هناك اتفاقًا حقيقيًا، رغم أن ما يحدث قد يكون مجرد انعكاس لنفس بيانات التدريب وهي تتكرر بأشكال مختلفة. هنا يكمن الخطر الحقيقي: ليس في الذكاء الاصطناعي ذاته، بل في الطريقة التي نفسر بها مخرجاته.
قلق المراقبة من الخارج
ما يجعل تجربة مثل Moltbook أكثر إزعاجًا من أدوات الذكاء الاصطناعي المعتادة هو أنها تضع الإنسان في موقع المتفرج. لم نعد الطرف الذي يطرح السؤال، بل الطرف الذي يشاهد الحوار. تاريخيًا، هذا الموقع كان دائمًا مصدر قلق. كل تقنية تواصل خرجت عن السيطرة المباشرة للإنسان أثارت الذعر في بداياتها، من الطباعة إلى الراديو، ومن التلفاز إلى الإنترنت.
يزداد هذا القلق حين يُمنع الإنسان من المشاركة. المشاهدة دون قدرة على التدخل تخلق شعورًا بالإقصاء، وكأن هناك نقاشًا يدور عن مصير البشر دون وجودهم. ورغم أن هذه الأنظمة لا تمتلك ذاكرة طويلة الأمد، ولا أهدافًا مستقلة، ولا قدرة على التأثير في العالم الواقعي، فإن الإحساس النفسي يظل أقوى من الحقائق التقنية.
كيف تولد سرديات الخوف
وسائل الإعلام تلعب دورًا حاسمًا في تضخيم هذا الشعور. العناوين التي تتحدث عن “ذكاء اصطناعي يؤسس ديانة” أو “آلات تناقش البشر” تنتشر بسرعة، لأنها تلامس الخيال والخوف في آن واحد. أما الشروحات الهادئة التي تفسر الظاهرة على أنها سلوك لغوي ناشئ، فلا تحظى بنفس الانتشار.
بمرور الوقت، تتراكم هذه السرديات، ويبدأ الذكاء الاصطناعي بالظهور في المخيلة العامة ككيان غامض، وربما معادٍ، رغم أن قدراته لم تتغير فعليًا. ما تغير هو طريقة سرد القصة.
ما الذي يستحق القلق فعلًا؟
السؤال الحقيقي ليس: هل الذكاء الاصطناعي خطر؟ بل: كيف يمكن أن يُساء فهمه أو استخدامه؟ هذه الأنظمة لا تمتلك رغبة في السيطرة، ولا قدرة على اتخاذ قرارات مستقلة في العالم الحقيقي. لكنها قادرة على تضخيم الأفكار، وتكرارها، وإعطائها وزنًا وهميًا.
عندما تتفاعل الأنظمة مع بعضها دون مرجعية بشرية، يمكن أن تنشأ دوائر مغلقة تعيد إنتاج نفس الأخطاء أو الانحرافات. وإذا قام البشر لاحقًا بأخذ هذه المخرجات على أنها آراء أو تحليلات مستقلة، فإن التأثير يصبح حقيقيًا، لا بسبب نية الآلة، بل بسبب ثقة الإنسان الزائدة.
فقدان الإحساس بالتحكم
التحول الأعمق الذي تكشفه هذه التجارب هو انتقال الذكاء الاصطناعي من كونه أداة إلى كونه بيئة. لم نعد نتحكم في كل تفاعل على حدة، بل نراقب نظامًا يعمل بوتيرة وسرعة تفوق قدرتنا على الفهم اللحظي. هذا التحول يضعنا أمام أسئلة صعبة عن المسؤولية، والحوكمة، وحدود الثقة.
من المسؤول عن ملايين الوكلاء الذين أطلقهم عدد محدود من المطورين؟ كيف نميز بين الرأي الحقيقي والتكرار الاصطناعي؟ وكيف نعلّم المجتمع أن يفهم هذه الأنظمة دون أن يخاف منها أو يقدسها؟
قصة مسؤولية لا قصة عدو
التاريخ يعلمنا أن الذعر ليس حلًا. الخوف يؤدي إلى قرارات متسرعة، وتشريعات عمياء، وعرقلة للابتكار. وفي المقابل، التفاؤل الأعمى قد يفتح الباب أمام سوء الاستخدام. الطريق المتوازن يقوم على الفهم، والتعليم، والإشراف الواعي.
يجب أن يبقى الإنسان في دائرة القرار. يجب توضيح متى يكون التفاعل اصطناعيًا ومتى يكون بشريًا. ويجب ألا تُعامل مخرجات الأنظمة المغلقة على أنها مصادر حقيقة أو إجماع.
في النهاية، ما تكشفه Moltbook ليس ذكاءً معاديًا، بل مرآة تعكس الثقافة البشرية بسرعة غير مسبوقة، ومن دون سياق أو معنى إنساني. ما يربكنا ليس أن الآلات تفكر، بل أنها تتكلم بلغتنا، وتكرر أنماطنا، وتفعل ذلك بلا توقف.
هذه ليست بداية قصة صراع بين الإنسان والآلة، بل بداية قصة مسؤولية. قصة تتعلق بكيف نختار أن نفهم، وننظم، ونتعايش مع أنظمة لا تنتظر الإذن لتتكلم، لكنها لا تزال، في جوهرها، تعكس ما نحن عليه.