روى رولا خلف، رئيس تحرير الصحفيين الماليين، قصصها المفضلة في هذه النشرة الأسبوعية. تعرض مارك ريد، الرئيس التنفيذي لشركة WPP، لعملية احتيال عبر تقنية الديب فايك، حيث استخدمت الجرائم الإلكترونية صورة صوتية مقلدة ولقطات يوتيوب عامة لإعداد اجتماع فيديو مع تنفيذييه. وفي بريد إلكتروني رؤيته من قبل Financial Times، قال ريد إن القراصنة استخدموا صورة عامة لإعداد حساب واتساب مزيف باسمه. تم استخدام ذلك لترتيب مكالمة فيديو عبر Microsoft Teams بين أحد رؤساء وكالته وكبير تنفيذي آخر والقراصنة. وأضاف: “كانت الذريعة هي أن الفرد المستهدف كان مُطلبًا بإعداد عملية جديدة تهدف في النهاية إلى استخراج تفاصيل شخصية وأموال. لحسن الحظ، لم ينجح المهاجمون”. حذر ريد زملاءه بأن شركة WPP قد شهدت “زيادة في الإتقان في الهجمات السيبرانية على زملائنا، وتلك المستهدفة بالأخص لقادة كبار”. وأظهر ريد أن الهجوم، الذي تم الإبلاغ عنه لأول مرة في الجارديان، كان يظهر “كيف أن هذه التقنيات مصممة خصيصًا لاستهداف الأفراد بمستوى أعلى بكثير من الحيل التي تحيل على الجمهور العريض أو الناس الضعفاء”. تضطر الشركات إلى استثمار كبير في برمجيات الأمان للمساعدة في منع مثل هذه الهجمات، على الرغم من أن العديد منها يتعرض مباشرة للهجوم. تعقب البنوك والمؤسسات المالية الأخرى بحذر شديد أي محاولات لسحب الأموال باستخدام التقليد الصوتي للذكاء الاصطناعي.
يشعر قادة الأحزاب السياسية أيضًا بقلق في الانتخابات القادمة من استخدام الديب فايك الذي يمكن استخدامه لتقمص أفراد للتأثير على الناخبين. تم الإبلاغ هذا الأسبوع عن فيديو ديب فايك لزعيم حزب الوطنيين الاسكتلندي جون سويني يتحدث في البرلمان هوليروود على وسائل التواصل الاجتماعي. تم الكشف عن أن صورة للمغنية كاتي بيري في حفل مت غالا هذا الأسبوع وهي ترتدي فستانًا فاخرًا قد تم تزييفها باستخدام الذكاء الاصطناعي.
في حالة عدم النجاح، صرح المتحدث باسم WPP في بيان: “بفضل يقظة موظفينا، بما في ذلك التنفيذي المعني، تم منع الحادث”.
ستستثمر شركة WPP بقوة في تكنولوجيا الذكاء الاصطناعي، والتي ستمنحها القدرة على إعادة إنتاج صور منتجات عملائها بكميات ضخمة للمستهلكين، على سبيل المثال، علبة من المشروبات الغازية في الآلاف من المواقع المختلفة ومع أشخاص مختلفين.
في برنامج Editor´s Digest ، اختار رولا خلف ، رئيس تحرير ال FT، قصصها المفضلة في هذه النشرة الأسبوعية. في الوقت نفسه، تعرض مارك ريد ، الرئيس التنفيذي ل WPP ، لمحاولة احتيال عبر الإنترنت باستخدام تقنية deepfake ، حيث استخدمت الجرائم السمعية والبصرية ومقاطع الفيديو من YouTube العامة لإعداد اجتماع فيديو مع تنفيذييه. وفي البريد الإلكتروني الذي شاهده Financial Times ، أشار ريد إلى أن القراصنة استخدموا صورة عامة لإعداد حساب واتساب مزيف باسمه. استخدم هذا لترتيب محادثة فيديو عبر Microsoft Teams بين واحد من رؤساء الوكالات وكبير تنفيذي آخر والقراصنة. وقال: “كانت مبررات الهجوم هذه هي استدراج الشخص المستهدف إلى إعداد عمل جديد بهدف استخراج تفاصيل شخصية وأموال. لحسن الحظ، لم ينجح المهاجمون”. حذر ريد زملائه بأن WPP شهدت “زيادة في درجة التعقيد في الهجمات السيبرانية على زملائنا، وبالأخص تلك المستهدفة على قادة الكبار”. أظهر الهجوم السيبراني المتطور – الذي يبدو أنه يستخدم برنامج الصوت الذكي المتقدم – الضعف للأفراد ذوي الشهرة العالية والذين تكون تفاصيلهم متاحة بسهولة على الإنترنت.
قال ريد إن الهجوم، الذي تم الإبلاغ عنه أولاً في الغارديان، أظهر “كيف أن هذه التقنيات مصممة خصيصًا لاستهداف الأفراد على مستوى أعلى من الحيل التي تستخدم لابتزاز الناس الضعفاء أو العامة”. تضطر الشركات للاستثمار بشكل كبير في برمجيات الأمان للمساعدة في منع مثل هذه الهجمات، على الرغم من أن العديد منها تتعرض مباشرة للهجوم. تشعر البنوك والمؤسسات المالية الأخرى بقلق شديد بشأن محاولات سحب الأموال باستخدام التقليد الصوتي للذكاء الاصطناعي. القادة السياسيون أيضًا يشعرون بالقلق خلال الانتخابات القادمة بشأن استخدام deepfakes التي يمكن استخدامها للتنكيل بالناخبين.
وقد تم الإبلاغ الأسبوع عن فيديو deepfake لزعيم حزب الوطنيين الاسكتلندي جون سويني أثناء إلقائه كلمة في البرلمان هوليروود على وسائل التواصل الاجتماعي. كما تم الكشف عن أن صورة للمغنية كاتي بيري في حفل ميت غالا هذا الأسبوع وهي ترتدي فستانًا مبهرجًا تم تزويرها باستخدام الذكاء الاصطناعي. شركة WPP نفسها تستثمر بقوة في تكنولوجيا الذكاء الاصطناعي، والتي ستتيح لها القدرة على إعادة إنتاج صور منتجات عملائها بكميات ضخمة للمستهلكين – على سبيل المثال، علبة من المشروبات الغازية في الآلاف من المواقع المختلفة ومع أشخاص مختلفين. وفي تصريح أوضح المتحدث باسم شركة WPP : “بفضل اليقظة التي أظهرها موظفونا، بما في ذلك التنفيذي المعني، تم منع الحادث”.

شاركها.
© 2024 خليجي 247. جميع الحقوق محفوظة.