CNET

لم تكن مشكلة موقع CNET مع الذكاء الاصطناعي أنه استخدم التقنية في غرفة الأخبار، بل أنه فعل ذلك بهدوء، ثم اكتشف القراء والصحفيون أن مقالات منشورة في موضوعات مالية حساسة كُتبت بمساعدة أداة ذكاء اصطناعي، قبل أن تظهر فيها أخطاء تستدعي التصحيح والمراجعة.

القصة التي انفجرت في يناير 2023 تحولت سريعًا إلى واحدة من أوائل الفضائح التحريرية الكبرى في عصر المحتوى الآلي، لأنها طرحت سؤالًا لا يزال يطارد المؤسسات الإعلامية حتى اليوم: هل يمكن للذكاء الاصطناعي أن يساعد الصحفيين، أم أنه قد يتحول إلى ماكينة إنتاج أخطاء مغلّفة بلغة واثقة؟

موقع CNET نشر 77 مقالة بمساعدة الذكاء الاصطناعي

بدأت القصة عندما تبيّن أن موقع CNET، المتخصص في أخبار التكنولوجيا والمراجعات والشروحات، كان ينشر منذ أشهر مقالات مالية مكتوبة بمساعدة أداة ذكاء اصطناعي داخلية، من دون أن يكون هذا الأمر واضحًا بما يكفي للقراء في البداية.

المقالات ظهرت في قسم CNET Money، وكانت تتناول موضوعات خدمات مالية وشروحات أساسية، وهي نوعية من المحتوى تبدو مناسبة ظاهريًا للأتمتة: أسئلة متكررة، مفاهيم مالية، ونصوص تفسيرية لا تحتاج بالضرورة إلى سبق صحفي ميداني.

لكن المشكلة أن المال ليس مجالًا يحتمل الأخطاء بسهولة. رقم خاطئ، أو تعريف غير دقيق، أو صياغة ملتبسة حول الفائدة والديون والقروض، قد يضلل القارئ في قرار مالي حقيقي.

41 تصحيحًا من أصل 77 مقالة

بعد انكشاف الأمر وظهور أخطاء في إحدى المقالات، أجرى فريق CNET Money مراجعة كاملة للمحتوى المنشور بمساعدة الذكاء الاصطناعي. وكانت النتيجة محرجة: إصدار تصحيحات في 41 مقالة من أصل 77.

هذا يعني أن أكثر من نصف المقالات التي خضعت للتجربة احتاجت إلى نوع من التصحيح أو التعديل، وهو رقم كافٍ لتحويل التجربة من اختبار تقني محدود إلى أزمة ثقة تحريرية.

ولم تكن كل الأخطاء بالدرجة نفسها. فبحسب رئيسة التحرير حينها كوني غوغليلمو، احتاج “عدد صغير” من المقالات إلى “تصحيح جوهري”، بينما تضمنت مقالات أخرى مشكلات أصغر مثل أسماء شركات غير مكتملة، أو أرقام مقلوبة، أو لغة رآها كبار المحررين غامضة.

لكن في الصحافة، خصوصًا في المال، لا تكون الأخطاء الصغيرة صغيرة دائمًا. فالخطأ في رقم أو اسم شركة أو شرح مالي قد يكون كافيًا لضرب مصداقية النص بأكمله.

رئيسة التحرير: كانت تجربة داخلية وليست ChatGPT

حاولت رئيسة تحرير CNET تفسير ما حدث، مؤكدة أن التجربة بدأت في نوفمبر 2022 داخل أحد الفرق التحريرية في قسم المال، وأن الأداة المستخدمة كانت محرك ذكاء اصطناعي داخليًا صُمم للمساعدة في إنتاج شروحات مالية أساسية، وليس ChatGPT.

وقالت غوغليلمو في شرحها:

“في نوفمبر، أطلق أحد فرقنا التحريرية، CNET Money، اختبارًا باستخدام محرك ذكاء اصطناعي مصمم داخليًا – وليس ChatGPT – لمساعدة المحررين على إنشاء مجموعة من الشروحات الأساسية حول موضوعات الخدمات المالية.”

وأضافت:

“بدأنا على نطاق صغير ونشرنا 77 قصة قصيرة باستخدام الأداة، أي نحو 1% من إجمالي المحتوى المنشور على موقعنا خلال الفترة نفسها.”

ثم أوضحت أن المحررين لم ينشروا النصوص كما هي، بل كانوا يضعون الخطوط العريضة أولًا، ثم يوسعون مسودات الذكاء الاصطناعي ويضيفون إليها ويحررونها قبل النشر.

وقالت:

“كان المحررون ينشئون المخططات الأولية للقصص أولًا، ثم يوسعون مسودات الذكاء الاصطناعي ويضيفون إليها ويحررونها قبل النشر. وبعد أن جرى التنبيه، وبحق، إلى وجود أخطاء واقعية في إحدى القصص المدعومة بالذكاء الاصطناعي، أجرى فريق CNET Money مراجعة كاملة.”

ايقاف استخدام الذكاء الاصطناعي مؤقتا

بعد موجة الانتقادات، أعلنت CNET وقف استخدام أداة الذكاء الاصطناعي مؤقتًا إلى حين تحسين الأداة والعملية التحريرية المحيطة بها.

وقالت غوغليلمو:

“لقد أوقفنا استخدام أداة الذكاء الاصطناعي مؤقتًا، وسنعود إلى استخدامها عندما نشعر بالثقة في أن الأداة وعملياتنا التحريرية ستمنع أخطاء البشر والذكاء الاصطناعي معًا.”

هذه الجملة تكشف جوهر الأزمة. فالمشكلة ليست أن الآلة تخطئ وحدها، بل أن البشر الذين راجعوا نصوصها لم يلتقطوا كل الأخطاء قبل النشر. بمعنى آخر، فشل النظام التحريري، لا الخوارزمية فقط.

تعديل اسم الكاتب وإظهار الإفصاح بوضوح

بعد الأزمة، غيّر الموقع طريقة عرض المقالات التي أُنتجت بمساعدة الذكاء الاصطناعي. فبدلًا من أن تظهر باسم غامض أو بطريقة لا يفهمها القارئ بسهولة، جرى تعديل اسم الكاتب إلى CNET Money مع إظهار الإفصاح عن استخدام الذكاء الاصطناعي بشكل أوضح.

هذا التفصيل مهم، لأن جزءًا كبيرًا من الغضب لم يكن متعلقًا بالأخطاء وحدها، بل بالشفافية. فالقراء لم يكونوا يعرفون بوضوح أن ما يقرأونه كُتب بمساعدة آلة، خاصة في موضوعات مالية يفترض أن تخضع لمراجعة بشرية صارمة.

في الصحافة الحديثة، قد لا يكون استخدام الذكاء الاصطناعي خطأ بحد ذاته، لكن إخفاء ذلك أو دفنه في ملاحظة غير واضحة يخلق انطباعًا بأن المؤسسة تحاول تمرير محتوى آلي تحت غطاء صحفي بشري.

أهمية فضيحة CNET للصناعة

قضية CNET جاءت مبكرًا جدًا في موجة الذكاء الاصطناعي التوليدي. كانت المؤسسات الإعلامية حول العالم تراقب ChatGPT وأدوات الكتابة الآلية بدهشة وقلق، بينما كان بعض الناشرين يفكرون في استخدامها لتقليل التكاليف وزيادة الإنتاج.

لكن تجربة CNET قدمت درسًا قاسيًا ألا وهو أن الذكاء الاصطناعي يستطيع أن يكتب بسرعة، لكنه قد يخطئ بثقة، والأسوأ أنه قد ينتج نصًا يبدو مرتبًا ومقنعًا، بينما يخفي داخله أرقامًا غير دقيقة أو استنتاجات مشوشة أو صياغات مضللة، وهذا النوع من الأخطاء أخطر من الأخطاء اللغوية العادية، لأنه لا يصرخ في وجه القارئ، بل يمر بهدوء داخل مقال يبدو مهنيًا.

ما حدث في CNET لا يعني أن الذكاء الاصطناعي يجب أن يُطرد من غرف الأخبار، لكنه يعني أن استخدامه يحتاج إلى قواعد صارمة: إفصاح واضح، مراجعة بشرية حقيقية، تحقق من الأرقام، عدم استخدامه في الموضوعات الحساسة دون رقابة مشددة، وعدم التعامل معه ككاتب مستقل.

الأداة يمكن أن تساعد في التلخيص، والهيكلة، واقتراح العناوين، وتبسيط المفاهيم، وجمع الأسئلة الشائعة. لكنها لا يجب أن تصبح مصدر الحقيقة. الحقيقة في الصحافة تأتي من الوثائق، والمصادر، والبيانات، والمراجعة، والخبرة التحريرية.