Rumah Pendapat Bolehkah sesuatu yang melindungi kita daripada kejam? | ben dickson

Bolehkah sesuatu yang melindungi kita daripada kejam? | ben dickson

Isi kandungan:

Video: Mengenal Apa Itu Deepfake, Dibuat Untuk Tujuan Apa Sih? | Teknodaim (November 2024)

Video: Mengenal Apa Itu Deepfake, Dibuat Untuk Tujuan Apa Sih? | Teknodaim (November 2024)
Anonim

Pada akhir 2017, Motherboard dilaporkan mengenai teknologi AI yang boleh menukar wajah dalam video. Pada masa itu, teknologi yang kemudiannya dikenali sebagai hasil kejatuhan yang dihasilkan dengan kasar dan kasar dan kebanyakannya digunakan untuk membuat video lucah palsu yang memaparkan selebriti dan ahli politik.

Dua tahun kemudian, teknologi telah berkembang dengan pesat dan lebih sukar untuk dideteksi dengan mata kasar. Bersama dengan berita palsu, video palsu telah menjadi kebimbangan keselamatan negara, terutamanya apabila pilihan raya presiden 2020 semakin hampir.

Memandangkan deepfakes muncul, beberapa organisasi dan syarikat telah membangunkan teknologi untuk mengesan video AI-tampered. Tetapi ada ketakutan bahawa pada suatu hari, teknologi deepfakes tidak mungkin untuk dikesan.

Penyelidik di University of Surrey telah membangunkan penyelesaian yang mungkin menyelesaikan masalah: bukannya mengesan apa yang salah, ia akan membuktikan apa yang benar. Dijadualkan untuk dibentangkan pada Persidangan Visi dan Pengiktirafan Pola Komputer (CVPR) yang akan datang, teknologi, yang dipanggil Archangel, menggunakan AI dan blockchain untuk mencipta dan mendaftarkan cap jari digital bukti untuk video yang sahih. Cap jari boleh digunakan sebagai titik rujukan untuk mengesahkan kesahihan media yang diedarkan dalam talian atau disiarkan di televisyen.

Menggunakan AI untuk Daftar Video

Cara klasik untuk membuktikan kesahihan sesuatu dokumen binari adalah dengan menggunakan tandatangan digital. Penerbit menjalankan dokumen mereka melalui algoritma kriptografi seperti SHA256, MD5, atau Blowfish, yang menghasilkan "hash, " rentetan kecil bait yang mewakili kandungan fail tersebut dan menjadi tandatangan digitalnya. Menjalankan fail yang sama melalui algoritma hashing pada bila-bila masa akan menghasilkan hash sama jika kandungannya tidak berubah.

Hashes adalah supersensitif kepada perubahan dalam struktur binari fail sumber. Apabila anda memodifikasi satu byte dalam fail hashed dan menjalankannya melalui algoritma sekali lagi, ia menghasilkan hasil yang sama sekali berbeza.

Namun, walaupun menghalang kerja keras untuk fail dan aplikasi teks, mereka memberikan cabaran untuk video, yang boleh disimpan dalam format yang berbeza, menurut John Collomosse, profesor visi komputer di University of Surrey dan peneraju projek untuk Malaikat.

"Kami mahu tandatangan itu sama tanpa mengira codec video itu dimampatkan, " kata Collomosse. "Jika saya mengambil video saya dan menukarnya, katakanlah, MPEG-2 ke MPEG-4, maka fail itu akan menjadi panjang yang sama sekali berbeza, dan bit-bit akan berubah sepenuhnya, yang akan menghasilkan hash yang berbeza. adalah algoritma hashing yang mengetahui kandungan."

Untuk menyelesaikan masalah ini, Collomosse dan rakan-rakannya mengembangkan rangkaian saraf yang mendalam yang sensitif terhadap kandungan yang terdapat dalam video itu. Rangkaian saraf dalam adalah sejenis pembinaan AI yang membangunkan tingkah lakunya melalui analisis sejumlah besar contoh. Menariknya, rangkaian saraf juga merupakan teknologi yang paling mendalam.

Apabila membuat deepfakes, pemaju memberi suapan rangkaian dengan gambar wajah subjek. Rangkaian saraf mempelajari ciri-ciri muka dan, dengan latihan yang mencukupi, menjadi mampu mencari dan menukar wajah dalam video lain dengan wajah subjek.

Rangkaian neural Archangel dilatih dalam video itu cap jari. "Rangkaian ini melihat isi kandungan video daripada bit dan baitnya, " kata Collomosse.

Selepas latihan, apabila anda menjalankan video baru melalui rangkaian, ia akan mengesahkannya apabila ia mengandungi kandungan yang sama dengan video sumber tanpa mengira formatnya dan akan menolaknya apabila ia adalah video yang berbeza atau telah diganggu atau diedit.

Menurut Collomosse, teknologi itu dapat mengesan kedua-dua spatial dan temporal mengganggu. Pelepasan spatial adalah perubahan yang dibuat kepada bingkai individu, seperti pengeditan wajah yang dilakukan dalam deepfakes.

Tetapi kejutan bukan satu-satunya cara video boleh diganggu. Kurang dibincangkan tetapi sama-sama berbahaya adalah perubahan yang disengajakan yang dibuat pada urutan bingkai dan kelajuan dan tempoh video. Video baru yang dilancarkan secara meluas oleh Speaker Dewan Nancy Pelosi tidak menggunakan deepfakes tetapi dicipta menerusi penggunaan teknik penyuntingan sederhana yang membuatnya kelihatan keliru.

"Salah satu bentuk gangguan yang kita dapat mengesan adalah penyingkiran segmen video yang pendek, ini adalah gangguan sementara dan kita dapat mengesan sehingga tiga saat gangguan. Jadi, jika video adalah beberapa jam lama dan anda hanya mengeluarkan tiga detik dari video itu, kita dapat mengesannya, "kata Collomosse sambil menambah bahawa Arkangel juga akan mengesan perubahan yang dibuat kepada kelajuan video asal, seperti yang dilakukan dalam video Pelosi.

Mendaftarkan Cap Jari di Blockchain

Komponen kedua dari projek Arkangel adalah blockchain, sebuah database yang mengutip-bukti dimana informasi baru dapat disimpan tetapi tidak berubah-sesuai untuk arsip video, yang tidak membuat perubahan pada video setelah didaftar.

Teknologi blockchain mendasari mata wang digital seperti Bitcoin dan Ether. Ia adalah lejar digital yang dikendalikan oleh beberapa pihak bebas. Sebilangan besar pihak mesti bersetuju dengan perubahan yang dibuat kepada blockchain, yang membuat tidak mungkin bagi mana-mana pihak untuk secara sepihak ikut campur dengan lejar.

Secara teknikalnya mungkin menyerang dan mengubah kandungan blockchain jika lebih daripada 50 peratus peserta terlibat. Tetapi dalam praktiknya, sangat sukar, terutamanya apabila blockchain diselenggarakan oleh banyak pihak bebas dengan berbagai tujuan dan minat.

Penghalang malaikat Archangel adalah sedikit berbeza daripada blockchain awam. Pertama, ia tidak menghasilkan cryptocurrency dan menyimpan hanya pengenal, cap jari yang mengetahui kandungan, dan hash binari rangkaian neural pengesahan untuk setiap video dalam arkib (blok tidak sesuai untuk menyimpan banyak data, sebab itulah video itu sendiri dan rangkaian saraf disimpan di luar rangkaian).

Juga, ia adalah blok hak yang dibenarkan atau "swasta". Ini bermakna tidak seperti blockchain Bitcoin, di mana semua orang boleh merakam urus niaga baru, hanya pihak berizin yang boleh menyimpan rekod baru di blok block Archain.

Malaikat sedang diuji oleh rangkaian arkib kerajaan negara dari UK, Estonia, Norway, Australia, dan Amerika Syarikat: Untuk menyimpan maklumat baru, setiap negara yang terlibat harus menanggung pengundian tambahan. Tetapi sementara arkib negara negara yang mengambil bahagian mempunyai hak untuk menambah rekod, semua orang telah membaca akses kepada blockchain dan boleh menggunakannya untuk mengesahkan video lain terhadap arkib.

  • AI dan Pembelajaran Mesin Pengeksploitasi, Deepfakes, Kini Lebih Cepat untuk Mengesan Pengekalan AI dan Mesin Pengeksploitasi, Deepfakes, Kini Lebih Cepat untuk Mendeteksi
  • Video Deepfake Di Sini, dan Kami Tidak Sedia Video Deepfake Di Sini, dan Kami Tidak Sedia
  • Adobe AI Baru Mengesan Photoshopped Menghadap Adobe Baru AI Mengesan Photoshopped Faces

"Ini adalah aplikasi blockchain untuk kebaikan orang ramai, " kata Collomosse. "Pada pendapat saya, satu-satunya penggunaan yang munasabah bagi blockchain adalah apabila anda mempunyai organisasi bebas yang tidak semestinya mempercayai satu sama lain tetapi mereka mempunyai kepentingan ini dalam matlamat bersama bersama ini. Dan apa yang ingin kita lakukan ialah selamatkan arkib kerajaan di seluruh dunia, supaya kita boleh menanggung integriti mereka menggunakan teknologi ini."

Oleh kerana mencipta video palsu menjadi lebih mudah, lebih pantas dan lebih mudah diakses, semua orang akan memerlukan semua bantuan yang mereka dapat untuk memastikan integriti arsip video mereka-terutama kerajaan.

"Saya rasa deepfakes hampir seperti perlumbaan senjata, " kata Collomosse. "Kerana orang ramai menghasilkan kejayaan yang sangat meyakinkan, dan suatu ketika nanti mungkin menjadi mustahil untuk mengesan mereka. Itulah sebabnya yang terbaik yang boleh anda lakukan adalah cuba membuktikan kebangkitan video."

Bolehkah sesuatu yang melindungi kita daripada kejam? | ben dickson