أساسيات نظام التشغيل لينكس
مدونة Linux/لِينُكس للمبتدئين والمهنيين
السلام عليكم و رحمة الله و بركاته
الصلاة والسلام على اشرف المرسلين صلى الله عليه وسلم
مدونة تعليم وتعريف على نظام التشغيل Linux/لِينُكس وعلى بعض انوعه التوزيعات Linux/لِينُكس وشرح تثبيت البرامج على نظام التشغيل Linux/لِينُكس لتشجيع على استخدم النظام نظام التشغيل Linux/لِينُكس . واخترنا اسم مدونة تعليم وتعريف نظام التشغيل Linux/لِينُكس و الهدف هو تعميم والتعريف بالنظام Linux/لِينُكس بمثابة اول خطوة الى عالم Linux/لِينُكس ربما الكثير منا لا يعرف الكثير عن نظام Linux/لِينُكس. في مدونة نحول التعرف علي نظام تشغيل Linux/لِينُكس قدر الامكان .

اخر الأخبار

ما هي تقنية التزييف العميق

                 بسم الله الرحمن الرحيم 

الصلاة والسلام على اشرف المرسلين صلى الله عليه وسلم

                                  السلام عليكم ورحمة الله

ما هي تقنية التزييف العميق 



وكيف يمكنك اكتشافها؟

أصبحت مقاطع الفيديو المزيفة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي أكثر شيوعًا (ومقنعة). إليكم سبب lقلق


ما هو التزييف العميق؟

هل شاهدت باراك أوباما يصف دونالد ترامب بـ " المغفل التام " ، أو أن مارك زوكربيرغ يتفاخر بـ " السيطرة الكاملة على بيانات مليارات الأشخاص المسروقة " ، أو شاهدت اعتذار جون سنو المؤثر عن النهاية .

أجب بنعم وقد رأيت التزييف العميق. إجابة القرن الحادي والعشرين على Photoshopping ، تستخدم تقنية deepfakes شكلاً من أشكال الذكاء الاصطناعي يسمى التعلم العميق لعمل صور لأحداث مزيفة ، ومن هنا جاء الاسم deepfake. هل تريد وضع كلمات جديدة في فم السياسي ، أو نجم في فيلمك المفضل ، أو الرقص مثل المحترفين ؟ ثم حان الوقت لعمل التزييف العميق.

لماذا؟

كثير من المواد الإباحية. عثرت شركة Deeptrace على 15000 مقطع فيديو على الإنترنت في سبتمبر 2019 ، وهو ما يقرب من الضعف على مدار تسعة أشهر. كانت نسبة مذهلة بلغت 96٪ مواد إباحية و 99٪ من تلك الوجوه المعينة من المشاهير الإناث إلى النجوم الإباحية. نظرًا لأن التقنيات الجديدة تسمح للأشخاص غير المهرة بعمل التزييف العميق باستخدام عدد قليل من الصور ، فمن المرجح أن تنتشر مقاطع الفيديو المزيفة إلى ما وراء عالم المشاهير لإثارة الانتقام الإباحي. وكما تقول دانييل سيترون ، أستاذة القانون في جامعة بوسطن: "تُستخدم تقنية Deepfake كسلاح ضد النساء". ما وراء الإباحية هناك الكثير من السخرية والهجاء والأذى.


هل الأمر يتعلق فقط بالفيديوهات؟

لا. يمكن لتكنولوجيا Deepfake إنشاء صور مقنعة ولكنها خيالية تمامًا من البداية. ربما كانت صحفية بلومبيرج غير موجودة ، "مايسي كينسلي" ، التي لديها ملف شخصي على LinkedIn و Twitter ، مزيفة. زعمت شركة لينكد إن زائفة أخرى ، "كاتي جونز" ، أنها تعمل في مركز الدراسات الاستراتيجية والدولية ، ولكن يُعتقد أنها مزيفة تم إنشاؤها لعملية تجسس أجنبية.

يمكن أن يكون الصوت مزيفًا أيضًا ، لإنشاء "أشكال صوتية " أو " نسخ صوتية " لشخصيات عامة. في آذار (مارس) الماضي ، دفع رئيس شركة تابعة لشركة ألمانية للطاقة في المملكة المتحدة ما يقرب من 200 ألف جنيه إسترليني في حساب مصرفي مجري بعد أن اتصل به محتال قام بتقليد صوت الرئيس التنفيذي الألماني . تعتقد شركات التأمين في الشركة أن الصوت كان مزيفًا ، لكن الأدلة غير واضحة. وبحسب ما ورد استخدمت عمليات احتيال مماثلة رسائل صوتية مسجلة على WhatsApp.

كيف يتم صنعهم؟

لطالما دفع باحثو الجامعات واستوديوهات المؤثرات الخاصة حدود ما هو ممكن من خلال التلاعب بالفيديو والصور. لكن deepfakes أنفسهم ولدوا في عام 2017 عندما نشر مستخدم Reddit يحمل نفس الاسم مقاطع إباحية معدلة على الموقع. استبدلت مقاطع الفيديو وجوه المشاهير - غال جادوت ، وتايلور سويفت ، وسكارليت جوهانسون وآخرين - إلى فناني الأداء الإباحي.

يستغرق الأمر بضع خطوات لعمل فيديو مبادلة الوجه. أولاً ، تقوم بتشغيل الآلاف من لقطات الوجه لشخصين من خلال خوارزمية AI تسمى التشفير. يكتشف المشفر أوجه التشابه بين الوجهين ويتعلمها ، ويقللها إلى ميزاتهما المشتركة ، ويضغط الصور في العملية. ثم يتم تدريس خوارزمية ذكاء اصطناعي ثانية تسمى وحدة فك التشفير لاستعادة الوجوه من الصور المضغوطة. نظرًا لاختلاف الوجوه ، تقوم بتدريب وحدة فك ترميز واحدة لاستعادة وجه الشخص الأول ، وجهاز فك ترميز آخر لاستعادة وجه الشخص الثاني. لإجراء تبديل الوجه ، يمكنك ببساطة تغذية الصور المشفرة في وحدة فك التشفير "الخاطئة". على سبيل المثال ، يتم إدخال صورة مضغوطة لوجه الشخص "أ" في وحدة فك الشفرة التي تم تدريبها على الشخص "ب" ، ثم تعيد وحدة فك التشفير بناء وجه الشخص "ب" بتعبيرات واتجاه الوجه "أ" للحصول على فيديو مقنع ،


مقاطع فيديو أصلية ومزيفة لفلاديمير بوتين


 مقارنة مقاطع الفيديو الأصلية والمزيفة العميق للرئيس الروسي فلاديمير بوتين. 

طريقة أخرى لعمل التزييف العميق تستخدم ما يسمى بشبكة الخصومة التوليدية ، أو غان. يضع غان خوارزميتين للذكاء الاصطناعي ضد بعضهما البعض. الخوارزمية الأولى ، المعروفة باسم المولد ، تغذي ضوضاء عشوائية وتحولها إلى صورة. ثم تُضاف هذه الصورة الاصطناعية إلى سلسلة من الصور الحقيقية - للمشاهير ، على سبيل المثال - التي يتم إدخالها في الخوارزمية الثانية ، المعروفة باسم أداة التمييز. في البداية ، لن تبدو الصور الاصطناعية مثل الوجوه. لكن كرر العملية مرات لا تحصى ، مع ردود الفعل على الأداء ، وتحسن كل من أداة التمييز والمولد. بالنظر إلى ما يكفي من الدورات والتعليقات ، سيبدأ المولد في إنتاج وجوه واقعية تمامًا لمشاهير غير موجودين تمامًا.

من يصنع التزييف العميق؟

الجميع من الأكاديميين والباحثين الصناعيين إلى هواة الهواة واستوديوهات المؤثرات البصرية ومنتجي المواد الإباحية. قد تنخرط الحكومات في التكنولوجيا أيضًا كجزء من استراتيجياتها عبر الإنترنت لتشويه سمعة الجماعات المتطرفة وتعطيلها ، أو إجراء اتصالات مع الأفراد المستهدفين ، على سبيل المثال.

ما التكنولوجيا التي تحتاجها؟

من الصعب عمل تزييف عميق جيد على جهاز كمبيوتر عادي. يتم إنشاء معظمها على أجهزة كمبيوتر سطح المكتب المتطورة باستخدام بطاقات رسومات قوية أو أفضل من ذلك باستخدام قوة الحوسبة في السحابة. هذا يقلل من وقت المعالجة من أيام وأسابيع إلى ساعات. لكن الأمر يتطلب خبرة أيضًا ، ليس أقلها لمس مقاطع الفيديو المكتملة لتقليل الوميض والعيوب المرئية الأخرى. ومع ذلك ، هناك الكثير من الأدوات المتاحة الآن لمساعدة الأشخاص في التزييف العميق. ستقوم العديد من الشركات بإعدادها نيابة عنك وتقوم بجميع عمليات المعالجة في السحابة. حتى أن هناك تطبيقًا للهاتف المحمول ، Zao ، يتيح للمستخدمين إضافة وجوههم إلى قائمة شخصيات التلفزيون والأفلام التي تدرب عليها النظام.


تطبيق مبادلة الوجه الصيني Zao


كيف تكتشف التزييف العميق؟

يصبح الأمر أكثر صعوبة مع تحسن التكنولوجيا. في عام 2018 ، اكتشف باحثون أمريكيون أن الوجوه المزيفة العميقة لا تومض بشكل طبيعي. لا عجب هناك: غالبية الصور تظهر الناس بأعينهم مفتوحة ، لذلك لا تتعلم الخوارزميات أبدًا عن الوميض. في البداية ، بدا الأمر وكأنه رصاصة فضية لمشكلة الكشف. ولكن ما أن نُشر البحث ، حتى ظهر التزييف العميق مع وميض. هذه هي طبيعة اللعبة: بمجرد الكشف عن نقطة ضعف ، يتم إصلاحها.

من السهل اكتشاف التزييف العميق رديء الجودة. قد يكون تزامن الشفاه سيئًا ، أو قد يكون لون الجلد غير منتظم. يمكن أن يكون هناك وميض حول حواف الأوجه المنقولة. والتفاصيل الدقيقة ، مثل الشعر ، يصعب بشكل خاص على منتجات التزييف العميق أن تظهر بشكل جيد ، خاصة عندما تكون الخيوط مرئية على الأطراف. يمكن أيضًا أن تكون المجوهرات والأسنان التي يتم تقديمها بشكل سيئ  ، مثل تأثيرات الإضاءة الغريبة ، مثل الإضاءة غير المتسقة والانعكاسات على القزحية.


تمول جميع الحكومات والجامعات وشركات التكنولوجيا الأبحاث لاكتشاف التزييف العميق. في الشهر الماضي ، انطلق أول تحدي اكتشاف التزييف العميق ، بدعم من Microsoft و Facebook و Amazon. وسيشمل فرق بحث من جميع أنحاء العالم تتنافس على التفوق في لعبة اكتشاف التزييف العميق.

حظر Facebook الأسبوع الماضي مقاطع الفيديو المزيفة التي من المحتمل أن تضلل المشاهدين في التفكير في أن شخصًا ما "قال كلمات لم يقلها في الواقع" ، في الفترة التي تسبق الانتخابات الأمريكية 2020. ومع ذلك ، لا تغطي السياسة سوى المعلومات المضللة التي يتم إنتاجها باستخدام الذكاء الاصطناعي ، مما يعني أن "التزييف الضحل".


هل المزيف العميق يعيث فسادا؟

يمكننا أن نتوقع المزيد من التزييف العميق الذي يضايق ، ويخيف ، ويهين ، ويقوض ويزعزع الاستقرار. لكن هل ستثير تقنية التزييف العميق حوادث دولية كبيرة.؟

هنا الوضع أقل وضوحا. يجب ألا يتسبب التزييف العميق لزعيم عالمي يضغط على الزر الأحمر الكبير في حدوث هرمجدون. ولن تسبب صور الأقمار الصناعية المزيفة للجنود المحتشدين على الحدود الكثير من المتاعب: فمعظم الدول لديها أنظمة تصوير أمنية موثوقة.

ومع ذلك ، لا يزال هناك متسع كبير لإحداث الأذى. في العام الماضي ، انهار سهم Tesla عندما قام Elon Musk بتدخين مادة مشتركة في عرض مباشر على الويب. في ديسمبر ، عاد دونالد ترامب إلى الوطن في وقت مبكر من اجتماع الناتو عندما ظهرت لقطات حقيقية لقادة العالم الآخرين يسخرون منه على ما يبدو. هل ستؤدي تقنية التزييف العميق المعقولة إلى تغيير أسعار الأسهم والتأثير على الناخبين وإثارة التوتر الديني؟ 


هل سيقوضون الثقة؟

التأثير الأكثر غدرًا للتزييف العميق ، جنبًا إلى جنب مع الوسائط الاصطناعية الأخرى والأخبار المزيفة ، هو إنشاء مجتمع انعدام الثقة ، حيث لا يستطيع الناس أو لم يعودوا يهتمون بتمييز الحقيقة عن الباطل. وعندما تتآكل الثقة ، يكون من الأسهل إثارة الشكوك حول أحداث معينة.

في العام الماضي ، رفض وزير الاتصال في الكاميرون مقطع فيديو تعتقد منظمة العفو الدولية أنه يظهر أخبارًا كاذبة ، ويظهر جنود الكاميرون وهم يعدمون المدنيين .

دونالد ترامب ، الذي اعترف بالتباهي بشأن انتزاع الأعضاء  للمرأة في محادثة مسجلة ، أشار لاحقًا إلى أن الشريط لم يكن حقيقيًا . في مقابلة مع الأمير أندرو مع بي بي سي مع إميلي ميتليس ، شكك الأمير في صحة صورة التقطت مع فيرجينيا جوفري ، وهي لقطة أصر محاميها على أنها حقيقية وغير متغيرة.

يقول البروفيسور ليليان إدواردز ، الخبير البارز في قانون الإنترنت بجامعة نيوكاسل: "قد لا تكون المشكلة هي الحقيقة المزيفة بقدر ما تكون حقيقة أن الواقع الحقيقي يصبح قابلاً للإنكار بشكل معقول".

مع ازدياد إمكانية الوصول إلى التكنولوجيا ، يمكن أن تكون التزييف العميق مشكلة للمحاكم ، لا سيما في معارك حضانة الأطفال ومحاكم التوظيف ، حيث يمكن إدخال الأحداث المزيفة كدليل. لكنها تشكل أيضًا خطرًا على الأمن الشخصي: يمكن أن تحاكي تقنية التزييف العميق البيانات البيومترية ، ويمكن أن تخدع الأنظمة التي تعتمد على التعرف على الوجه أو الصوت . إن احتمالية حدوث عمليات احتيال واضحة. اتصل بشخص ما فجأة ومن غير المرجح أن يقوم بتحويل الأموال إلى حساب مصرفي غير معروف. ولكن ماذا لو أجرت "والدتك" أو "أختك" مكالمة فيديو على WhatsApp وقدمت نفس الطلب؟


ما هو الحل؟

ومن المفارقات أن الذكاء الاصطناعي قد يكون هو الحل. يساعد الذكاء الاصطناعي بالفعل في اكتشاف مقاطع الفيديو المزيفة ، لكن العديد من أنظمة الكشف الحالية بها نقطة ضعف خطيرة: فهي تعمل بشكل أفضل للمشاهير ، لأنها يمكن أن تتدرب على ساعات من اللقطات المتاحة مجانًا. تعمل شركات التكنولوجيا الآن على أنظمة الكشف التي تهدف إلى الإبلاغ عن المنتجات المقلدة متى ظهرت. تركز إستراتيجية أخرى على مصدر الإعلام. العلامات المائية الرقمية ليست مضمونة ، ولكن نظام دفتر الأستاذ عبر الإنترنت الخاص بـ blockchain يمكنه الاحتفاظ بسجل غير قابل للعبث لمقاطع الفيديو والصور والصوت بحيث يمكن دائمًا التحقق من أصولها وأي عمليات تلاعب.


هل التزييف العميق ضار دائمًا؟

على الاطلاق. كثير منها ترفيهي وبعضها مفيد. يمكن لاستنساخ الصوت العميق أن يعيد أصوات الناس عندما يفقدونها بسبب المرض. يمكن لمقاطع الفيديو المزيفة العميقة إحياء المعارض والمتاحف. في فلوريدا ، يحتوي متحف دالي على صورة مزيفة للرسام السريالي الذي يقدم فنه ويلتقط صور سيلفي مع الزوار . بالنسبة لصناعة الترفيه ، يمكن استخدام التكنولوجيا لتحسين دبلجة الأفلام الأجنبية ، والأكثر إثارة للجدل ، إحياء الممثلين القتلى. على سبيل المثال ، من المقرر أن يلعب الراحل جيمس دين دور البطولة في فيلم Finding Jack ، وهو أحد أفلام حرب فيتنام.


ماذا عن الزيف الضحل؟

صاغها Sam Gregory من منظمة Witness لحقوق الإنسان ، والزيف الضحل عبارة عن مقاطع فيديو يتم تقديمها خارج السياق أو يتم التلاعب بها باستخدام أدوات تحرير بسيطة. إنها بدائية لكنها مؤثرة بلا شك. وصل مقطع فيديو ضحل أدى إلى إبطاء خطاب نانسي بيلوسي وجعل صوت رئيس مجلس النواب الأمريكي متداخلًا إلى ملايين الأشخاص على وسائل التواصل الاجتماعي.


وفي حادثة أخرى ، مُنع جيم أكوستا ، مراسل سي إن إن ، مؤقتًا من حضور جلسات إحاطة إعلامية في البيت الأبيض خلال حوار ساخن مع الرئيس. ظهر مقطع فيديو مقلد تم إصداره بعد ذلك ليُظهر له وهو يتواصل مع متدرب حاول نزع الميكروفون عنه. اتضح لاحقًا أن الفيديو قد تم تسريعه في اللحظة الحاسمة ، مما جعل الخطوة تبدو عدوانية. أعيد تصريح كوستا الصحفي في وقت لاحق.

استخدم حزب المحافظين في المملكة المتحدة تكتيكات زائفة مماثلة. في الفترة التي سبقت الانتخابات الأخيرة ، تلاعب المحافظون بمقابلة تلفزيونية مع النائب العمالي كير ستارمر لجعل الأمر يبدو أنه غير قادر على الإجابة على سؤال حول موقف الحزب بشأن خروج بريطانيا من الاتحاد الأوروبي. مع تقنية التزييف العميق ، من المرجح أن يزداد إحداث الأذى. كما قال هنري أجدر ، رئيس استخبارات التهديدات في Deeptrace: "أصبح العالم أكثر اصطناعية بشكل متزايد. هذه التكنولوجيا لن تختفي ".

ليست هناك تعليقات

(( مَا يَلْفِظُ مِنْ قَوْلٍ إِلَّا لَدَيْهِ رَقِيبٌ عَتِيدٌ))