هل يمكن أن يكتب الذكاء الاصطناعي نهايتنا المهنية كمبرمجين؟ هذا هو السؤال الذي يتردد في أروقة عالم التكنولوجيا، مثيراً موجات من القلق والتفاؤل في آن واحد. بينما يتنبأ البعض بثورة تقنية ستجعل المطورين البشريين شيئاً من الماضي، يرى آخرون أن هذه الموجة لا تختلف كثيراً عن سابقاتها، وأنها مجرد أداة جديدة في جعبتنا. في نقاش حديث، يقدم روبرت سي مارتن (Robert C. Martin)، المعروف في مجتمع البرمجيات بلقب “العم بوب” (Uncle Bob)، رؤية متعمقة تفكك هذا الضجيج وتضع الأمور في نصابها، مستنداً إلى عقود من الخبرة في هذا المجال.

في حديث له عبر يوتيوب، يرى مارتن أن المخاوف من أن الذكاء الاصطناعي سيقضي على وظائف البرمجة هي تكرار لسيناريو قديم شهدته الصناعة مراراً وتكراراً. يوضح أن هذه النظرة المتشائمة غالباً ما تكون مدفوعة بالرغبة في جذب الانتباه وإثارة الجدل أكثر من كونها تحليلاً واقعياً للمستقبل. في المقابل، هناك فريق آخر يذهب إلى أبعد من ذلك، معلناً أن “المبرمجين لن يكون لهم وجود بعد الآن”. لكن التاريخ يقدم لنا درساً مختلفاً.

الخوف من الأتمتة: درس من الخمسينيات

ليست هذه هي المرة الأولى التي يشعر فيها المبرمجون بالتهديد من تقدم التكنولوجيا. يعود بنا “العم بوب” إلى أوائل الخمسينيات، حين كان المبرمجون الأوائل يكتبون التعليمات البرمجية مباشرة باستخدام اللغة الثنائية (binary)، أي سلسلة من الأصفار والآحاد. في ذلك الوقت، لم تكن هناك مترجمات (compilers) أو مجمّعات (assemblers). كان العمل شاقاً ومضنياً، وفي بعض الحالات، كان المبرمجون يثقبون الأشرطة الورقية يدوياً لإنشاء “الكود”.

عندما ظهرت غريس هوبر (Grace Hopper)، إحدى رائدات علوم الكمبيوتر، بفكرة ثورية تتمثل في استخدام الكمبيوتر نفسه لترجمة تمثيل رقمي أبسط إلى تلك الثقوب في الشريط الورقي، سادت حالة من الذعر بين المبرمجين. لقد اعتقدوا أن هذه الأداة الجديدة ستجعل عملهم بسيطاً لدرجة أن أي شخص يمكنه القيام به، مما سيؤدي حتماً إلى فقدانهم لوظائفهم. لكن ما حدث كان العكس تماماً؛ فقد أدت هذه الأدوات إلى زيادة الإنتاجية وفتحت الباب أمام حل مشكلات أكثر تعقيداً، مما زاد من الطلب على المبرمجين المهرة بدلاً من تقليله.

يرى مارتن أن الذكاء الاصطناعي اليوم هو مجرد حلقة جديدة في هذه السلسلة الطويلة من الأدوات المساعدة. إنه أداة قوية ومفيدة، لكن بشرط ألا نصدق كل ما “تقوله”.

حدود الذكاء الاصطناعي الحالية: هل هو ذكي حقاً؟

على الرغم من القدرات المذهلة التي تظهرها نماذج اللغة الكبيرة (Large Language Models أو LLMs) مثل ChatGPT، يؤكد “العم بوب” أنها ليست كائنات مفكرة. هي لا تزال مجرد برامج متطورة تقوم بتجميع البيانات إحصائياً لتلبية خوارزمية معينة. إنها تفتقر إلى الإدراك، الحكم، أو الفهم الحقيقي لما “تكتبه”.

عندما تطلب من هذه النماذج كتابة كود برمجي، قد تفعل ذلك، لكنه كود يجب فحصه بعناية فائقة. هذه الأنظمة لا “تعرف” ما تفعله، وهي مستعدة تماماً لتقديم معلومات خاطئة أو “هلوسات” (Hallucinations) بثقة تامة. هذا الضعف الجوهري تم تأكيده في العديد من الدراسات الأكاديمية. على سبيل المثال، وجدت دراسة أجراها باحثون من جامعة ستانفورد بعنوان Who is the Better Coder? A Study on AI-Human Collaborative Programming أن المبرمجين الذين استخدموا مساعدي الذكاء الاصطناعي كانوا أكثر عرضة لإنتاج كود يحتوي على أخطاء أمنية مقارنة بمن لم يستخدموه، لأنهم كانوا يميلون إلى الثقة المفرطة في اقتراحات الذكاء الاصطناعي.

يضيف خبراء آخرون مثل غاري ماركوس (Gary Marcus)، الأستاذ الفخري في جامعة نيويورك وأحد أبرز منتقدي نهج التعلم العميق الحالي، أن هذه النماذج تفتقر إلى القدرة على التفكير المنطقي وفهم السياق العميق، مما يجعلها غير موثوقة للمهام التي تتطلب دقة وحكماً مطلقاً، مثل تطوير البرمجيات المعقدة.

عقبة الذكاء الاصطناعي العام (AGI)

يطرح المتفائلون فكرة أننا على بعد خطوات من تحقيق الذكاء الاصطناعي العام (Artificial General Intelligence أو AGI)، وهو مستوى من الذكاء يضاهي أو يتجاوز الذكاء البشري. لكن “العم بوب” يشكك بشدة في هذا الاحتمال في المستقبل المنظور، على الأقل ليس مع التكنولوجيا الحالية القائمة على السيليكون.

يوضح أن أدمغتنا البشرية عبارة عن شبكات عصبية ثلاثية الأبعاد (3D neural networks) ذات تعقيد فائق، بينما تُبنى دوائرنا الإلكترونية الحالية على ركائز ثنائية الأبعاد. الفجوة بين البنيتين هائلة. إن محاكاة القدرة الهائلة للدماغ البشري على التوازي والترابط قد لا تكون ممكنة باستخدام البنية الحالية للشرائح الإلكترونية. هذا الرأي ليس معزولاً؛ فالعديد من علماء الأعصاب وخبراء الأجهزة يشيرون إلى أن تحقيق ذكاء شبيه بالبشر قد يتطلب ثورة في بنية الحوسبة نفسها، ربما من خلال تقنيات مثل الحوسبة العصبية الشكلية (neuromorphic computing) التي تحاول محاكاة بنية الدماغ بشكل مباشر.

دورة الضجيج وشتاء الذكاء الاصطناعي القادم

ما نشهده اليوم من حماس هائل حول الذكاء الاصطناعي قد لا يكون مؤشراً على ثورة حتمية بقدر ما هو مرحلة طبيعية في دورة حياة أي تقنية جديدة. يُعرف هذا النمط بـ “دورة الضجيج لجارتنر” (Gartner Hype Cycle)، وهي نموذج يصف المراحل التي تمر بها التقنيات الناشئة. تبدأ الدورة بـ “محفز الابتكار” (Innovation Trigger)، تليها “قمة التوقعات المنتفخة” (Peak of Inflated Expectations)، ثم “قاع خيبة الأمل” (Trough of Disillusionment)، وبعدها “منحدر التنوير” (Slope of Enlightenment)، وأخيراً “هضبة الإنتاجية” (Plateau of Productivity).

Gartner Hype Cycle رسم توضيحي لدورة الضجيج من جارتنر

تشير العديد من العلامات إلى أننا قد نكون في ذروة التوقعات المنتفخة أو على وشك الانزلاق نحو قاع خيبة الأمل. بدأ البريق الأولي للذكاء الاصطناعي التوليدي يتلاشى، وبدأ الناس يتساءلون عما إذا كانت هذه التقنية قادرة حقاً على الوفاء بوعودها الضخمة.

وهذا ليس بالأمر الجديد في تاريخ الذكاء الاصطناعي. لقد مرت الصناعة بما يسمى “شتاء الذكاء الاصطناعي” (AI Winter) عدة مرات:

  1. الستينات والسبعينات: انهار التفاؤل حول الذكاء الاصطناعي الرمزي (Symbolic AI)، الذي كان يعتمد على المنطق والقواعد، عندما فشل في التعامل مع تعقيد وغموض العالم الحقيقي.
  2. الثمانينات: انهارت الأنظمة الخبيرة (Expert Systems)، التي كانت تعتبر مستقبل الذكاء، بسبب عدم قدرتها على التكيف والتعلم، على الرغم من الاستثمارات الضخمة والضجيج الإعلامي.
  3. أوائل الألفية: ساد هدوء نسبي قبل أن يؤدي التعلم العميق (Deep Learning) إلى إشعال موجة التفاؤل الحالية.

العلامات التي تشير إلى شتاء جديد محتمل بدأت تظهر:

معضلة المبرمج: هل يجب تغيير المسار الوظيفي؟

في ظل هذه المعطيات، يبرز السؤال المنطقي: هل يجب على المبرمجين التفكير في تغيير مسارهم المهني إلى مجال “أقل خطورة”؟ تاريخياً، عندما كانت الأتمتة تهدد مجالاً ما، كان تغيير المسار خياراً عقلانياً. لكن تطوير البرمجيات قد يكون مختلفاً.

تتطلب البرمجة مستوى فريداً من حل المشكلات المعتمد على السياق، بدءاً من تفسير المتطلبات البشرية الغامضة، مروراً بالتعامل مع الديناميكيات الاجتماعية داخل فرق العمل، وصولاً إلى تصميم أنظمة قوية وقابلة للصيانة على المدى الطويل. لكي يتمكن الذكاء الاصطناعي من استبدال مطور برامج بشري بالكامل، سيحتاج إلى الوصول إلى مستوى من التفكير المنطقي والإبداعي قد يجعل معظم المهن الأخرى قديمة أيضاً.

هنا تظهر فكرة “سلم العمومية” (Ladder of Generality) التي طرحها أرفيند نارايانان (Arvind Narayanan) وساياش كابور (Sayash Kapoor) في كتابهما AI Snake Oil. يجادلان بأنه لا يمكنك التنبؤ بشكل هادف بالدرجة التالية على هذا السلم؛ فكل مستوى جديد من قدرات الذكاء الاصطناعي يجلب معه عواقب جديدة وغير متوقعة.

إذا وصل الذكاء الاصطناعي إلى النقطة التي يمكنه فيها بناء البرمجيات بشكل مستقل، فمن المحتمل أنه قد حل أيضاً العديد من التحديات الأساسية للذكاء العام نفسه. في هذا السيناريو، لن تكون أي مهنة معرفية في مأمن من الأتمتة. وبالتالي، فإن استثمار الوقت والمال الآن للانتقال إلى مهنة أخرى “أكثر أماناً” قد يكون مضيعة للوقت، لأن الموجة التالية من الذكاء الاصطناعي قد تقوم بأتمتة هذا المجال الجديد بسهولة.

الخلاصة: الإنسان سيبقى في دائرة القرار

في نهاية المطاف، يتفق “العم بوب” ومعسكر المتشككين على أن دور المبرمج البشري لن يختفي، بل سيتطور. سيظل الإنسان دائماً في مركز الحلقة (human in the loop)، مسؤولاً عن الحكم والإشراف والتفكير النقدي. ستصبح أدوات الذكاء الاصطناعي مساعدين أقوياء، تتولى المهام الروتينية وتسرّع من عملية التطوير، لكنها لن تحل محل الإبداع والبصيرة والمسؤولية البشرية.

المستقبل ليس للمبرمجين الذين يخشون الذكاء الاصطناعي، بل لأولئك الذين يتعلمون كيفية تسخير قوته، وفهم حدوده، والتركيز على الجوانب التي لا يمكن للآلة أن تتقنها: التصميم المعماري، وفهم احتياجات العمل، وقيادة المشاريع نحو النجاح. وكما لم يقضِ المترجم (compiler) على المبرمجين في الخمسينيات، فإن الذكاء الاصطناعي لن يفعل ذلك اليوم.


تنويه: هذا المقال يلخص آراء الخبراء والدراسات المتاحة لأغراض تعليمية فقط، ولا يعتبر نصيحة طبية أو استثمارية. يجب على القارئ دائماً إجراء بحثه الخاص والتشاور مع المتخصصين قبل اتخاذ أي قرارات.