هل تتصرف على طرف مخزون واضح من Martin Wolf ، كبير المعلقين في الاقتصاد المخضرم في FT؟

ميزات تحليل الخبراء في العديد من مقاطع الفيديو المالية المشروعة المنشورة على حسابات وسائل التواصل الاجتماعي في FT ، لكن المحتالين قد أنشأوا مجموعة من صور Deepfake Video على Instagram حيث يبدو أنه يقدم نصيحة استثمارية.

“في الوقت الحالي ، فإن هذه الأسهم الثلاثة في نقطة تحول حرجة ويمكن أن ترى مكاسب كبيرة في الشهرين المقبلين” ، كما يقول ذئب مقنع يبحث ، لكنه معالج رقميًا ، في إعلان مزيف يدعو الناس للانضمام إلى “مجموعة Whatsapp Investment الحصرية” لمعرفة المزيد.

أخبر Meta ، مالك WhatsApp و Instagram ، FT أنها أزالت الإعلانات وتعطيلها ، لكن القراء سيكونون من الحكمة أن تراقب المزيد من عمليات الاحتيال من هذا الطبيعة مع حدوث عمليات احتيال Deepfake.

ماذا وراء ارتفاع في عمليات الاحتيال العميقة؟
الارتفاع السريع ل AI التوليدي (الذكاء الاصطناعي). التكنولوجيا اللازمة لإنشاء مقاطع فيديو وصور اصطناعية رخيصة ومتاحة بسهولة وسهلة للمحتالين لاستخدامها لإنشاء محتوى مقنع.

Deepfakes من المشاهير بما في ذلك تايلور سويفت وإيلون موسك ونجوم Dragons 'Den تم إنشاؤه للترويج لكل شيء من أدوات المطبخ إلى عمليات الاحتيال المشفرة وحبوب الحمية. في العام الماضي ، خسر رجل بريطاني 76000 جنيه إسترليني بسبب عملية احتيال عميق حيث بدا أن مارتن لويس ، مؤسس خبير توفير المال ، يروج لخطة الاستثمار غير الموجودة في بيتكوين.

وقال نيك ستابلتون ، مقدم سلسلة بي بي سي الحائزة على جائزة ، إن المحتالين لديهم الآن ميزة حاسمة واحدة اعتراضات الاحتيال ومؤلف الكتاب كيف تتغلب على المحتالين.

وقال: “تعمل Deepfakes مثل سحر المحتالين ، لأن العديد من مستخدمي وسائل التواصل الاجتماعي لا يعرفون ببساطة ما هو الذكاء الاصطناعى التوليدي الذي يمكن أن يتعلق الأمر بجعل مقاطع الفيديو المقنعة”. “إنهم يرون مقطع فيديو مثل Martin Wolf's Deepfake ويعتقدون أنه حقيقي لأنهم لا يملكون المعلومات اللازمة للتشكيك فيه.”

حذر لويس ، الذي يدعي أن لديه “جائزة غريبة” لكونه الوجه الأكثر ترسيخًا في بريطانيا ، من ارتفاع إعلانات Deepfake على ITV's صباح الخير بريطانيا هذا الاسبوع.

وقال: “لن أثق في إعلان مع أحد المشاهير إذا لم تره إلا على وسائل التواصل الاجتماعي إذا كانت تتحدث عن الاستثمار أو اتباع نظام غذائي أو أي من مناطق الاحتيال الأخرى”. “إذا كان الأمر قد دفعني إلى ذلك ، فأنا لا أفعل الإعلانات أبدًا ، لذلك فهو مزيف. أي شيء يسرع لك لكسب المال … مزيف ، مزيف ، لا يثق بهم ، إنهم مجرمون.”

ما هي النماذج الأخرى التي يمكن أن تأخذها مقاطع فيديو DeepFake؟
المشاهير ليسوا الوحيدين الذين يمكن استنساخ صورهم. يقول خبراء الاحتيال إن DeepFakes يتم استخدامه بشكل متزايد في مكالمات الفيديو لانتحال شخصية كبار الموظفين في منظمات الشركات ، وإقناع الموظفين الآخرين بمعالجة المدفوعات التي تبين أنها احتيالية.

في العام الماضي ، خسرت شركة الهندسة البريطانية Arup 25 مليون دولار (20 مليون جنيه إسترليني) عندما تم إقناع أحد موظفي هونغ كونغ بإجراء 15 نقل بنك بعد أن استنسخ المحتالون رقميًا المدير المالي للشركة في مكالمة مؤتمر عبر الفيديو.

إن المؤثرين عبر الإنترنت الذين ينشرون مقاطع الفيديو وصور وجوههم على منصات التواصل الاجتماعي معرضة للخطر بشكل خاص ، حيث أن المزيد من محتوى الفرد هناك لتدريب الذكاء الاصطناعي ، وكلما كانت النسخ المقلدة أكثر واقعية.

مع تقدم التكنولوجيا ، تتمتع مقاطع فيديو DeepFake بإمكانية جعل عمليات الاحتيال الرومانسية أكثر إقناعًا ، ويمكن استخدامها لمعالجة صور الأصدقاء وأفراد الأسرة الذين يقدمون طلبات مقابل المال.

ما الذي يجب أن تفعله منصات التواصل الاجتماعي؟
بينما تقول منصات التواصل الاجتماعي أنها ستستخدم التعرف على الوجه للتعرف على الإعلانات المزيفة وإنزالها ، إلا أنها لا تضطر إلى البقاء مستيقظين لاكتساب الجر.

كما قال مارتن وولف نفسه: “كيف من الممكن أن لا تستطيع شركة مثل Meta بمواردها الضخمة ، بما في ذلك أدوات الذكاء الاصطناعي ، تحديد مثل هذه الاحتيال تلقائيًا ، خاصة عند إبلاغها بوجودها؟”

أخبر Meta FT: “إنه يتعارض مع سياساتنا لانتحال شخصيات عامة وقمنا بإزالة الإعلانات والحسابات والصفحات التي تمت مشاركتها معنا.

وأضاف ميتا: “إن المحتالين لا هوادة فيه ويتطورون باستمرار تكتيكاتهم لمحاولة التهرب من الكشف ، وهذا هو السبب في أننا نطور باستمرار طرقًا جديدة لجعل من الصعب على المحتالين خداع الآخرين – بما في ذلك استخدام تكنولوجيا التعرف على الوجه”.

وقال ستابلتون: “الحقيقة البسيطة هي أنه عندما يتم وضع مقاطع الفيديو هذه على وسائل التواصل الاجتماعي كإعلانات ، فإنها تمر بعملية فحص”. “إذا كانت أمثال Meta ببساطة تفكر في استثمار المزيد من أرباحها الواسعة في فحص أفضل ، واعتدال أفضل للوظائف العامة ، فإن هذا سيصبح أقل من القضية بسرعة كبيرة.”

بموجب قانون السلامة عبر الإنترنت الجديد في المملكة المتحدة ، يجب على شركات التكنولوجيا وضع أهداف أداء لإزالة المواد غير القانونية بسرعة عندما تصبح على دراية بها واختبار خوارزميات لجعل المحتوى غير القانوني أكثر صعوبة في نشره.

كيف يمكنك اكتشاف مقطع فيديو على الأرجح؟
نصيحة Stapleton العليا لاكتشاف الصور التي تم معالجتها رقميًا هي النظر إلى فم الشخص الذي يفترض أنه يتحدث على الكاميرا: هل هو حقًا يصنع أشكال الكلمات؟ بعد ذلك ، انظر إلى بشرتهم: هل هو مسطح في الملمس ، بدون تعريف أو تجاعيد؟ وانظر إلى عيونهم: هل تومض على الإطلاق ، أم أكثر من اللازم؟

أخيرًا ، استمع إلى لهجة صوتهم. وقال: “تكافح الذكاء الاصطناعي مع مجموعة الأصوات البشرية ، لذلك تميل العميق إلى أن تبدو مسطحة للغاية وحتى في لهجة وتفتقر إلى المشاعر”.

لم يبدو مقطع الفيديو Deepfake لذئب FT مثله مثله ، ولكن نظرًا لأن العديد من مستخدمي وسائل التواصل الاجتماعي يشاهدون مقاطع الفيديو على الصامتة وقراءة التسميات التوضيحية ، فإن المحتالين يكتسبون ميزة أخرى.

أخيرًا ، كن حذرًا بشكل خاص من الإعلانات على وسائل التواصل الاجتماعي. إذا لم تتمكن من العثور على المعلومات التي تم الإبلاغ عنها في أي مكان آخر ، فمن المؤكد أنها مزيفة.

ماذا تفعل إذا تم انتحال شخصية عبر الإنترنت
أبلغ عن عملية الاحتيال إلى منفذ وسائل التواصل الاجتماعي ، باستخدام أدوات إعداد التقارير للمنصة. أيضًا ، دع أصدقائك وأتباعك يعرفون الحساب المزيف لمنعهم من التضليل.

إذا كنت ضحية لعملية الاحتيال العميقة هذه ، أو استمرت في رؤية مقطع الفيديو Deepfake لمارتن وولف على منصات التواصل الاجتماعي ، فيرجى مشاركة تجربتك مع FT AT visual.investigations@ft.com

شاركها.
© 2025 خليجي 247. جميع الحقوق محفوظة.
Exit mobile version