أحدث المقالات

فرانشيسكا جيمس: الإلهة الإباحية التي أحبها كاني ويست

في سلسلة من 18 مقطع فيديو نشرها مغني الراب...

فضيحة كاني ويست ye x: أفلام اباحية ومعاداة اليهود

تحول حساب كاني ويست ye x على منصة اكس...

الماسونية تكرم الرئيس جو بايدن: كيف أصبح ماسونيا عظيما؟

ظهر إعلان على الإنترنت، أصدره مؤتمر كبار الأساتذة في...

ميزات رابونا كازينو: مراجعة شاملة

دخل عملاق قوي سوق المراهنات وذلكمن خلال موقع ويب...

لماذا يرتفع الدولار الأمريكي وينهار اليوان والآخرين في الحرب التجارية؟

في الحرب التجارية الثانية التي اندلعت بسبب الرسوم الجمركية...

عملية التقطير: كيف سرقت DeepSeek بيانات ChatGPT؟

عملية التقطير: كيف سرقت DeepSeek بيانات ChatGPT؟

يبدو أن ما فعلته DeepSeek في الواقع هو نسخ بيانات ChatGPT من OpenAI وتقديمها في نموذج جديد وهو ديب سيك.

اتهمت شركة OpenAI المدعومة من مايكروسوفت منافستها الصينية DeepSeek باستخدام نماذجها الخاصة لتدريب نظامها الخاص.

اقتحمت ديب سيك المسرح العالمي الأسبوع الماضي، مدعية أنها دربت نظام الذكاء الاصطناعي الخاص بها مقابل جزء بسيط من التكلفة التي تنفقها الشركات الأمريكية، حتى أنها أصدرت ورقة فنية توضح كيف فعلت ذلك في ديسمبر.

ديب سيك متورط في سرقة الملكية الفكرية

ربما قال الرئيس التنفيذي لشركة OpenAI سام ألتمان إنه من الجيد أن يكون هناك منافس جديد، لكن هذا لم يمنع شركته من اتهام منافسها الجديد بسرقة الملكية الفكرية.

تعكف حاليا مجموعات كثيرة من الباحثين ووسائل الإعلام في التحقيق بنموذج ديب سيك الصينية، ومعرفة السر وراء تطويره فقط بميزانية لم تتعد 6 مليون دولارا أمريكيا.

والحقيقة أن هناك تفسير لما حدث يبدو منطقيا، ويتناسب تماما مع المعجزة المزيفة التي صنعتها شركة ناشئة صينية مغمورة طورت نموذجها في شهرين فقط.

إذن، ماذا فعلت شركة DeepSeek؟ وفقًا لشركة OpenAI، فقد رأت الشركة الأمريكية أدلة على أن الشركة الصينية سرقت منها البيانات والجهود التي جلبتها الشركة الأمريكية هي بدورها من الويب.

تتضمن عملية التقطير، وهي ممارسة شائعة في مجال الذكاء الاصطناعي، نقل المعرفة من نموذج أكبر إلى نموذج أصغر، في الواقع، الركوب على العمل المنجز بالفعل.

غالبًا ما يتم استخدامها لتدريب نماذج جديدة في جزء بسيط من الوقت والتكلفة اللازمة للقيام بذلك من الصفر، وخاصة بين الشركات الناشئة والأكاديميين.

عملية التقطير التي نفذتها ديب سيك

عملية التقطير (أو تقطير النماذج) في مجال الذكاء الاصطناعي تُعرف تقنيًا باسم “تقطير المعرفة” (Knowledge Distillation).

هي تقنية تُستخدم لتبسيط النماذج الكبيرة والمعقدة وتحويلها إلى نماذج أصغر حجمًا مع الحفاظ على أدائها بقدر الإمكان.

الهدف الرئيسي هو جعل النماذج أسرع وأخف وزنًا لتكون مناسبة للتطبيقات العملية، مثل التشغيل على الأجهزة محدودة الموارد (الهواتف، الأجهزة الطرفية، إلخ).

من فوائد هذه العملية هي تقليل تكاليف الحوسبة السحابية لتطوير نموذج جديد من خلال الإعتماد على نماذج ذكاء اصطناعي متاحة من قبل.

التحقيقات ليست في صالح ديب سيك

تحظر شروط خدمة OpenAI على المستخدمين نسخ خدماتها أو استخدام المخرجات “لتطوير نماذج تنافس OpenAI”.

لم تقدم OpenAI ومايكروسوفت أدلة على مزاعمهما ضد DeepSeek ومع ذلك، قال مصدر تحدث إلى بلومبرج إن الشركات حققت في حسابات يُعتقد أنها كانت تابعة للشركة الصينية العام الماضي، والتي كانت تستخدم واجهة برمجة التطبيقات الخاصة بشركة OpenAI.

وبسبب الشك في عملية التقطير، قاموا بحظر وصول تلك الحسابات إلى شات جي بي تي، ويبدو أن الأمر جاء متأخرا حيث حصل الصينيون على البيانات.

وقال ديفيد ساكس، كبير مستشاري دونالد ترامب في مجال الذكاء الاصطناعي والعملات المشفرة، “من المحتمل” أن تكون شركة DeepSeek قد تورطت في سرقة الملكية الفكرية.

وقال لشبكة فوكس نيوز، “هناك أدلة قوية على أن ما فعلته DeepSeek هنا هو أنها استخلصت المعرفة من نماذج OpenAI، ولا أعتقد أن OpenAI سعيدة جدًا بهذا الأمر”.

حتى الآن لم ترد الشركة الصينية على هذه المزاعم لكن بكل تأكيد هي تتابع بقلق التحقيقات التي لا تصب في صالحها والتي ستعيد إلى الواجهة مشكلة كبرى في الصين وهي سرقة الحقوق الفكرية وابتكارات الآخرين وتقديمها بتكلفة أقل لكسر المنافسين.

اشترك في قناة مجلة أمناي على تيليجرام بالضغط هنا.

تابعنا على جوجل نيوز 

تابعنا على فيسبوك 

تابعنا على اكس (تويتر سابقا)