بسم الله الرحمن الرحيم
استخدام القراصنة لنموذج "كلود" من شركة Anthropic في إنشاء الفيروسات
مع التقدم السريع في مجال الذكاء الاصطناعي، ظهرت العديد من النماذج اللغوية المتقدمة مثل GPT من OpenAI، وClaude من شركة Anthropic، والتي تتمتع بقدرة فائقة على معالجة اللغة الطبيعية وتوليد النصوص البرمجية وتحليل البيانات. ورغم الفوائد العظيمة لهذه النماذج في التعليم، البرمجة، والبحث، فإنها أيضًا أصبحت هدفًا ووسيلة لبعض الجهات السيئة مثل القراصنة الإلكترونيين الذين يحاولون استغلالها في تطوير برمجيات ضارة، وعلى رأسها الفيروسات.
ما هو نموذج "كلود" (Claude)؟
"كلود" هو نموذج لغوي ضخم (LLM) تم تطويره بواسطة شركة Anthropic، وهو مصمم ليكون مساعدًا ذكيًا يتميز بقدرة عالية على فهم السياق وتقديم ردود آمنة وموثوقة. وقد ركّزت شركة Anthropic على جعل Claude أكثر التزامًا بالسلامة والأخلاقيات من خلال تدريبه على ما يُعرف باسم "التحفيز الدستوري" (Constitutional AI)، لتقليل المخاطر الناتجة عن إساءة الاستخدام.
كيف يحاول القراصنة استخدام "كلود"؟
رغم الضوابط التي تفرضها شركة Anthropic على Claude لمنع استخدامه في الأنشطة الخبيثة، فإن هناك تقارير ومخاوف متزايدة من محاولات القراصنة استخدام Claude لإنشاء أو تحسين فيروسات الكمبيوتر، وذلك عبر عدة طرق، منها:
1. طلب تعليمات برمجة لبرمجيات خبيثة
يحاول بعض المستخدمين خداع النظام عبر إعادة صياغة الطلبات بشكل لا يبدو ضارًا ظاهريًا، مثل سؤال Claude عن كيفية "اكتشاف ثغرات في تطبيق لأغراض الاختبار"، بينما النية الحقيقية تكون خبيثة.
2. تحسين شيفرات ضارة موجودة مسبقًا
يقوم القراصنة بلصق أكواد برمجية ضارة وطلب تحسينها أو تسريعها أو إخفائها بشكل أفضل لتفادي برامج الحماية.
3. إنشاء أدوات للتصيّد أو سرقة البيانات
مثل توليد رسائل بريد إلكتروني خادعة، أو سكربتات لجمع معلومات من الحواسيب المصابة، دون الإشارة الصريحة إلى أنها لأغراض ضارة.
ما موقف شركة Anthropic من ذلك؟
شركة Anthropic، مثلها مثل OpenAI وGoogle وMeta، تطبق سياسات أمان صارمة تشمل:
مراقبة الاستخدام واكتشاف الأنماط المشبوهة.
حظر الطلبات التي تتعلق بتطوير برمجيات ضارة.
بناء فلاتر أمان تحاول تفسير النوايا خلف النص، وليس فقط الكلمات الظاهرة.
إنشاء نظام مراجعة داخلية للإبلاغ عن الاستخدامات السيئة.
ومع ذلك، فإن السباق بين المطورين السيئين وأنظمة الأمان لا يزال مستمرًا، ولا توجد حماية مطلقة بنسبة 100%.
هل يستطيع Claude فعلاً توليد فيروس؟
بصيغته الأصلية وتحت سياسات الاستخدام الحالية، Claude يرفض معظم الطلبات التي تتضمن إنشاء أكواد خبيثة. لكن:
قد يُخدع النموذج في بعض الحالات باستخدام حيل لغوية أو سياقات غير واضحة.
بعض الإصدارات المفتوحة أو غير المراقبة (إذا وُجدت) من Claude قد تكون أكثر عرضة لسوء الاستخدام.
هناك إمكانية لاستخدام Claude في التحليل العكسي (Reverse Engineering) أو فهم سلوك فيروسات موجودة، مما يساعد في تطوير أخرى جديدة.
كيف يمكن تقليل هذا الخطر؟
1. تقييد الوصول إلى النماذج المتقدمة إلا للباحثين والمطورين المعتمدين.
2. تحسين أنظمة الكشف عن النوايا في الطلبات.
3. زيادة التعاون بين الشركات المطورة للذكاء الاصطناعي والجهات التنظيمية.
4. نشر التوعية حول الاستخدام الأخلاقي للذكاء الاصطناعي.
رغم أن الذكاء الاصطناعي يمثل قفزة كبيرة في تطور التكنولوجيا، فإنه يحمل في طياته تحديات خطيرة تتطلب انتباهًا مستمرًا. استخدام القراصنة لنماذج مثل Claude في إنشاء فيروسات هو احتمال واقعي يتطلب تكاتفًا بين المطورين، والشركات، والمستخدمين، وصناع القرار لضمان أن تظل هذه الأدوات مفيدة وآمنة في خدمة البشرية.
ليست هناك تعليقات:
إرسال تعليق
(( مَا يَلْفِظُ مِنْ قَوْلٍ إِلَّا لَدَيْهِ رَقِيبٌ عَتِيدٌ))