Rumah Perniagaan Ai dan mesin pembelajaran mengeksploitasi, deepfakes, kini lebih sukar untuk dikesan

Ai dan mesin pembelajaran mengeksploitasi, deepfakes, kini lebih sukar untuk dikesan

Isi kandungan:

Video: DEEPFAKE Tutorial: A Beginners Guide (using DeepFace Lab) (November 2024)

Video: DEEPFAKE Tutorial: A Beginners Guide (using DeepFace Lab) (November 2024)
Anonim

Semasa kami menuju ke musim kempen pilihan raya presiden yang akan datang, anda perlu berhati-hati terhadap kemungkinan bahaya yang menyebabkan video dalam talian palsu menggunakan kecerdasan buatan (AI) dan pembelajaran mesin (ML). Dengan menggunakan perisian AI, orang boleh membuat video yang mendalam (pendek untuk "belajar mendalam dan palsu") di mana algoritma ML digunakan untuk melakukan swap muka untuk mencipta ilusi bahawa seseorang sama ada mengatakan sesuatu yang mereka tidak katakan atau orang yang mereka ' tidak. Video Deepfake muncul di pelbagai arena, dari hiburan hingga politik ke dunia korporat. Bukan sahaja dapat menjejaskan video secara tidak adil mempengaruhi pilihan raya dengan mesej palsu, tetapi mereka boleh membawa malu peribadi atau menyebabkan mesej jenama yang mengelirukan jika, katakan, mereka menunjukkan seorang CEO mengumumkan peluncuran produk atau pengambilalihan yang sebenarnya tidak berlaku.

Deepfakes adalah sebahagian daripada kategori AI yang dipanggil "Generative Adversarial Networks" atau GANs, di mana dua rangkaian saraf bersaing untuk membuat gambar atau video yang kelihatan nyata. GAN terdiri daripada penjana, yang membuat satu set data baru seperti video palsu, dan seorang diskriminator, yang menggunakan algoritma ML untuk mensintesis dan membandingkan data dari video sebenar. Penjana terus berusaha untuk mensintesis video palsu dengan yang lama sehingga pembeza tidak dapat memberitahu bahawa data itu baru.

Seperti Steve Grobman, Naib Presiden Kanan dan Ketua Pegawai Teknologi (CTO) McAfee, menunjukkan pada Persidangan RSA 2019 pada bulan Mac di San Francisco, gambar-gambar palsu telah berlaku sejak penciptaan fotografi. Beliau berkata mengubah foto menjadi tugas mudah yang boleh anda lakukan dalam aplikasi seperti Adobe Photoshop. Tetapi kini jenis keupayaan penyuntingan maju bergerak ke dalam video juga, dan mereka melakukannya menggunakan alat perisian yang sangat mampu dan mudah diakses.

Bagaimana Deepfakes Dibuat

Walaupun pemahaman konsep AI sangat membantu, tidak perlu menjadi ahli sains data untuk membina video yang mendalam. Ia hanya melibatkan beberapa arahan dalam talian, menurut Grobman. Pada Persidangan RSA 2019 (lihat video di atas), beliau melancarkan video mendalam bersama Dr. Celeste Fralick, Ketua Data Saintis dan Jurutera Utama Kanan di McAfee. Video kejutan menggambarkan ancaman teknologi ini. Grobman dan Fralick menunjukkan bagaimana seorang pegawai awam dalam video mengatakan sesuatu yang berbahaya boleh menyesatkan orang ramai untuk memikirkan mesej itu adalah benar.

Untuk membuat video mereka, perisian Grobman dan Fralick dimuat turun dengan mendalam. Mereka kemudian mengambil video Grobman memberi keterangan sebelum Senat AS pada 2017 dan menumpahkan mulut Fralick ke Grobman.

"Saya menggunakan komentar awam dengan mudah untuk membuat dan melatih model ML, supaya saya dapat mengembangkan video dengan kata-kata saya keluar dari mulut, " kata Fralick kepada penonton RSA dari atas panggung. Fralick terus mengatakan bahawa video dalam-dalam dapat digunakan untuk eksploitasi sosial dan peperangan maklumat.

Untuk membuat video mereka yang mendalam, Grobman dan Fralick menggunakan alat pengguna Reddit yang dibangunkan dikenali sebagai FakeApp, yang menggunakan algoritma ML dan foto untuk menukar wajah pada video. Semasa persembahan RSA mereka, Grobman menerangkan langkah seterusnya. "Kami memecah video ke dalam imej pegun, kami mengeluarkan wajah, dan kami membersihkannya dengan menyusunnya dan membersihkannya di Instagram."

Skrip Python membenarkan pasukan McAfee membina pergerakan mulut untuk memecahkan ucapan Fralick dengan mulut Grobman. Kemudian mereka perlu menulis beberapa skrip adat. Cabaran dalam mencipta kejayaan yang meyakinkan adalah apabila ciri-ciri seperti gender, umur, dan nada kulit tidak sesuai, kata Grobman.

Dia dan Fralick kemudian menggunakan algoritma AI akhir untuk memadankan imej Grobman memberi keterangan sebelum Senat dengan ucapan Fralick. Grobman menambah bahawa ia mengambil masa 12 jam untuk melatih algoritma ML ini.

McAfee menggariskan langkah-langkah yang diambil untuk mencipta video kejutan yang ditunjukkan pada Persidangan RSA 2019. Ia menggunakan perisian deepfake yang dipanggil FakeApp dan latihan model ML untuk mengubah video Grobman dengan ucapan dari Fralick. (Kredit imej: McAfee).

Konsekuensi Deepfakes

Video deepfake yang dicipta oleh Hacker berpotensi menyebabkan banyak masalah - segala-galanya daripada pegawai kerajaan menyebarkan maklumat palsu kepada selebriti yang berasa malu daripada berada dalam video yang mereka tidak benar kepada syarikat yang merosakkan kedudukan pasaran saham pesaing. Menyedari masalah ini, penggubal undang-undang pada September menghantar surat kepada Daniel Coats, Pengarah Perisikan Negara AS, untuk meminta semakan semula ancaman yang terjadi dalam keadaan sedih. Surat itu memberi amaran bahawa negara-negara seperti Rusia boleh menggunakan deepfakes di media sosial untuk menyebarkan maklumat palsu. Pada bulan Disember, penggubal undang-undang memperkenalkan Akta Larangan Palsu Deep Malicious 2018 untuk menipu penipuan berkaitan dengan "rekod audiovisual, " yang merujuk kepada deepfakes. Ia masih dapat dilihat jika rang undang-undang akan lulus.

Seperti yang disebutkan, selebriti boleh mengalami rasa malu dari video di mana wajah mereka telah ditapis berbanding wajah bintang lucah, seperti halnya Gal Gadot. Atau bayangkan seorang CEO sepatutnya mengumumkan berita produk dan tenggelam stok sebuah syarikat. Pakar keselamatan boleh menggunakan ML untuk mengesan jenis serangan ini, tetapi jika mereka tidak dikesan dalam masa, mereka boleh membawa kerosakan yang tidak perlu ke negara atau jenama.

"Dengan deepfakes, jika anda tahu apa yang anda lakukan dan anda tahu siapa yang akan disasarkan, anda benar-benar dapat menghasilkan video yang meyakinkan untuk menyebabkan banyak kerosakan kepada jenama, " kata Dr Chase Cunningham, Penganalisis Utama di Forrester Research. Beliau menambah bahawa, jika anda mengedarkan mesej-mesej ini di LinkedIn atau Twitter atau menggunakan bentuk bot, "anda boleh menghancurkan stok syarikat berdasarkan jumlah video palsu tanpa banyak usaha."

Melalui video mendalam, pengguna dapat ditipu untuk mempercayai produk dapat melakukan sesuatu yang tidak dapat dilakukan. Cunningham berkata, jika Ketua Pegawai Pengilang kereta utama berkata dalam video palsu bahawa syarikat itu tidak lagi akan mengeluarkan kenderaan yang bertenaga gas dan menyebarkan mesej itu di Twitter atau LinkedIn dalam video itu, maka tindakan itu boleh merosakkan jenama.

"Menariknya dari penyelidikan saya, orang membuat keputusan berdasarkan berita utama dan video dalam 37 saat, kata Cunningham." Jadi anda boleh bayangkan jika anda boleh mendapatkan video yang berjalan lebih lama dari 37 saat, anda boleh membuat orang membuat keputusan berdasarkan sama ada fakta atau tidak. Dan itu menakutkan."

Oleh kerana media sosial adalah tempat yang mudah terdedah di mana video-video dalam-dalam boleh menjadi virus, laman-laman media sosial secara aktif berusaha untuk memerangi ancaman deepfakes. Facebook, sebagai contoh, menghantar pasukan kejuruteraan yang dapat melihat foto, audio, dan video yang dimanipulasi. Sebagai tambahan kepada penggunaan perisian, Facebook (dan syarikat media sosial lain) menyewa orang untuk secara manual mencari deepfakes.

"Kami telah memperluas usaha kami yang berterusan untuk memerangi media yang dimanipulasi untuk memasukkan menangani masalah yang mendalam, " kata wakil Facebook dalam satu kenyataan. "Kami tahu kemunculan semua bentuk media yang dimanipulasi terus memberikan cabaran nyata kepada masyarakat. Itulah sebabnya kami melabur dalam penyelesaian teknikal baru, belajar dari penyelidikan akademik, dan bekerja dengan orang lain dalam industri untuk memahami deepfakes dan bentuk lain media yang dimanipulasi."

Tidak Semua Deepfakes Tidak Baik

Seperti yang kita lihat dengan video mendalam pendidikan oleh McAfee dan video mendalam comed pada TV lewat malam, beberapa video yang tidak masuk akal tidak semestinya buruk. Sebenarnya, walaupun politik boleh mendedahkan bahaya sebenar video mendalam, industri hiburan sering kali hanya menunjukkan bahagian yang lebih terang dari video.

Sebagai contoh, dalam satu episod The Late Show Dengan Stephen Colbert, video yang terperangkap dengan lucu ditunjukkan di mana wajah pelakon Steve Buscemi diletakkan di atas badan pelakon Jennifer Lawrence. Dalam kes lain, pelawak Jordan Peeler menggantikan video bekas Presiden Barack Obama yang bercakap dengan suara sendiri. Video mendalam yang menyeramkan seperti ini juga telah muncul dalam talian, di mana wajah Presiden Trump ditapis atas wajah Canselor Jerman Angela Merkel sebagai orang yang bercakap.

Sekali lagi, jika video mendalam digunakan untuk tujuan satir atau lucu atau hanya sebagai hiburan, maka platform media sosial dan bahkan rumah pengeluaran filem membenarkan atau menggunakannya. Sebagai contoh, Facebook membenarkan jenis kandungan ini pada platformnya, dan Lucasfilm menggunakan jenis rekreasi digital untuk menampilkan seorang Carrie Fisher muda di badan pelakon Ingvild Deila dalam "Rogue One: A Star Wars Story."

Grobman McAfee menyatakan bahawa sesetengah teknologi di sebalik deepfakes diguna pakai dengan baik dengan double stunt dalam gerakan untuk memastikan pelakon selamat. "Konteks adalah segalanya, jika ia adalah untuk tujuan komedi dan jelas bahawa ia tidak benar, itu sesuatu yang menggunakan teknologi yang sah, " kata Grobman. "Menyedari bahawa ia boleh digunakan untuk pelbagai tujuan yang berbeza adalah kunci."

(Kredit imej: Statista)

Bagaimana Mengesan Video Deepfake

McAfee bukan satu-satunya firma keselamatan yang bereksperimen dengan cara mengesan video palsu. Dalam makalahnya yang disampaikan di Black Hat 2018 berjudul "AI Gone Rogue: Menghapuskan Fake Deep Sebelum Mereka Menyebabkan Menace, " dua pakar keselamatan Symantec, Respons Respon Keselamatan Vijay Thaware dan Jurutera Pembangunan Perisian Niranjan Agnihotri, menulis bahawa mereka telah membuat alat untuk melihat video palsu berdasarkan Google FaceNet. Google FaceNet adalah seni bina rangkaian neural yang dibangunkan oleh penyelidik Google untuk membantu pengesahan wajah dan pengiktirafan. Pengguna melatih model FaceNet pada imej tertentu dan kemudian dapat mengesahkan identiti mereka semasa ujian selepas itu.

Untuk cuba menghentikan penyebaran video mendalam, Yayasan AI, organisasi bukan keuntungan yang memberi tumpuan kepada interaksi manusia dan AI, menawarkan perisian yang disebut "Realiti Pembela" untuk mengesan kandungan palsu. Ia boleh mengimbas imej dan video untuk melihat sama ada ia telah diubah menggunakan AI. Sekiranya mereka ada, mereka akan mendapat "Air Terjun AI Jujur."

  • Panduan Perniagaan untuk Pembelajaran Mesin Panduan Perniagaan untuk Pembelajaran Mesin
  • PornHub, Twitter Ban 'Deepfake' AI-Modified Porn PornHub, Twitter Ban 'Deepfake' AI-Modified Porn
  • Tech Deepfake Terkini Akan Datang Seperti Bruno Mars Tech Deepfake Terkini Akan Datang Seperti Bruno Mars

Satu lagi strategi adalah untuk mengekalkan konsep Zero Trust dalam fikiran, yang bermaksud "tidak pernah mempercayai, selalu mengesahkan" -a moto keselamatan maya yang bererti profesional IT harus mengesahkan semua pengguna adalah sah sebelum memberikan hak akses. Baki skeptikal terhadap kesahan kandungan video akan diperlukan. Anda juga mahukan perisian dengan keupayaan analisis digital untuk mengesan kandungan palsu.

Melihat Keluar untuk Deepfakes

Melangkah ke hadapan, kami perlu lebih berhati-hati dengan kandungan video dan perhatikan bahaya yang dapat mereka sampaikan kepada masyarakat jika disalahgunakan. Seperti yang dijelaskan Grobman, "Dalam jangka masa terdekat, orang perlu lebih skeptikal terhadap apa yang mereka lihat dan mengakui bahawa video dan audio boleh dibuat."

Oleh itu, teruskan pandangan yang ragu-ragu terhadap video politik yang anda tonton ketika kami menuju ke musim pilihan raya seterusnya, dan jangan mempercayai semua video yang memaparkan pemimpin korporat. Kerana apa yang anda dengar mungkin tidak benar-benar dikatakan, dan video yang menyebarkan secara mendalam mempunyai potensi untuk benar-benar merosakkan masyarakat kita.

Ai dan mesin pembelajaran mengeksploitasi, deepfakes, kini lebih sukar untuk dikesan