Isi kandungan:
Video: Kepada yang gemar share berita palsu...tolonglah hentikan (November 2024)
AI makmal penyelidikan AI OpenAI menyebabkan gelombang panik kiamat AI bulan lalu apabila ia memperkenalkan AI yang menjana teks terkini yang dipanggil GPT-2. Tetapi semasa merayakan pencapaian GPT-2, OpenAI mengumumkan bahawa ia tidak akan melepaskan model AInya kepada orang ramai, dengan takut bahawa dalam tangan yang salah, GPT-2 boleh digunakan untuk maksud jahat seperti menjana artikel berita yang mengelirukan, meniru orang lain dalam talian, dan mengautomasikan pengeluaran kandungan palsu di media sosial.
AI dan Bahasa Manusia
Komputer mempunyai sejarah yang sukar untuk mengendalikan bahasa manusia. Terdapat begitu banyak kerumitan dan nuansa dalam teks bertulis yang menukar semua mereka kepada peraturan perisian klasik adalah hampir mustahil. Tetapi kemajuan terkini dalam pembelajaran mendalam dan rangkaian saraf telah membuka jalan bagi pendekatan yang berbeza untuk mewujudkan perisian yang dapat mengendalikan tugas yang berkaitan dengan bahasa.
Pembelajaran yang mendalam telah membawa peningkatan hebat kepada bidang seperti terjemahan mesin, ringkasan teks, menjawab soalan, dan penjanaan bahasa semula jadi. Ia membolehkan jurutera perisian membuat algoritma yang membangunkan tingkah laku mereka sendiri dengan menganalisis banyak contoh. Untuk tugas yang berkaitan dengan bahasa, para jurutera memberi kandungan neural rangkaian yang didigit seperti berita, halaman Wikipedia, dan jawatan media sosial. Jaring saraf dengan berhati-hati membandingkan data dan memerhatikan bagaimana perkataan tertentu mengikut orang lain dalam urutan yang berulang. Mereka kemudian menjadikan corak-corak ini menjadi persamaan matematik kompleks yang membantu mereka menyelesaikan tugas yang berkaitan dengan bahasa seperti meramalkan kata-kata yang hilang dalam urutan teks. Pada umumnya, data latihan yang lebih berkualiti yang anda berikan kepada model pembelajaran yang mendalam, semakin baik ia melakukan tugasnya.
Menurut OpenAI, GPT-2 telah dilatih pada 8 juta laman web dan berbilion kata-kata, yang lebih banyak daripada yang lain, model yang serupa. Ia juga menggunakan model AI canggih untuk menggunakan pola teks yang lebih baik. Output sampel dari GPT-2 menunjukkan bahawa model itu berjaya mengekalkan koherensi dalam urutan teks yang lebih lama daripada pendahulunya.
Tetapi sementara GPT-2 adalah satu langkah ke hadapan dalam bidang generasi bahasa semulajadi, ia bukanlah satu kejayaan teknologi ke arah penciptaan AI yang dapat memahami makna dan konteks teks bertulis. GPT-2 masih menggunakan algoritma untuk membuat urutan kata-kata yang secara statistiknya sama dengan berbilion-bilion petikan teks yang pernah dilihatnya-ia sama sekali tidak memahami apa yang menjana.
Dalam analisis yang mendalam, Tiernan Ray dari ZDNet menunjuk kepada beberapa contoh di mana sampel output GPT-2 mengkhianati sifat tiruan mereka dengan artifak terkenal seperti duplikasi istilah dan kekurangan logik dan konsistensi dalam fakta. "Apabila GPT-2 beralih untuk menangani penulisan yang memerlukan lebih banyak idea dan logik, keretakannya terbuka lebar, " kata Ray.
Pembelajaran statistik boleh membantu komputer menjana teks yang betul dari segi tatabahasa, tetapi pemahaman konseptual yang lebih mendalam diperlukan untuk mengekalkan konsistensi logik dan faktual. Malangnya, itu masih menjadi cabaran bahawa campuran AI semasa tidak dapat diatasi. Itulah sebabnya GPT-2 boleh menghasilkan perenggan teks yang baik tetapi mungkin akan menjadi sukar untuk menghasilkan artikel panjang yang sahih atau menyamar sebagai seseorang dengan cara yang meyakinkan dan sepanjang tempoh masa yang panjang.
Mengapa Panic Fake Berita AI Terlalu
Satu lagi masalah dengan penafsiran OpenAI: Ia mengandaikan bahawa AI boleh mencipta krisis berita palsu.
Pada tahun 2016, sekumpulan remaja Macedonia menyebarkan berita palsu mengenai pemilihan presiden Amerika Syarikat kepada berjuta-juta orang. Ironinya, mereka bahkan tidak mempunyai kemahiran bahasa Inggeris yang betul; mereka mencari kisah mereka di web dan menjalin kandungan yang berbeza bersama-sama. Mereka berjaya kerana mereka mencipta laman web yang kelihatan cukup asli untuk meyakinkan pengunjung untuk mempercayai mereka sebagai sumber berita yang boleh dipercayai. Tajuk utama sensasi, pengguna media sosial lalai, dan algoritma trending melakukan selebihnya.
Kemudian pada tahun 2017, pelakon berniat jahat mencetuskan krisis diplomatik di rantau Teluk Parsi dengan menggodam laman web berita kerajaan Qatari dan akaun media sosial kerajaan dan menerbitkan kenyataan palsu bagi pihak Sheikh Tamim bin Hamad Al Thani, Emir Qatar.
Seperti yang ditunjukkan oleh kisah-kisah ini, kejayaan kempen berita palsu bergantung pada kepercayaan (dan mengkhianati), bukan untuk menghasilkan banyak teks bahasa Inggeris yang koheren.
Amaran OpenAI tentang mengautomasikan pengeluaran kandungan palsu untuk diposkan di media sosial adalah lebih wajar, walau bagaimanapun, kerana skala dan kelantangan memainkan peranan yang lebih penting dalam rangkaian sosial daripada yang mereka lakukan di kedai media tradisional. Anggapan bahawa AI seperti GPT-2 akan dapat membanjiri media sosial dengan berjuta-juta catatan unik mengenai topik tertentu, mempengaruhi algoritma aliran dan perbincangan awam.
Tetapi masih, amaran-amaran itu tidak mencukupi realiti. Dalam beberapa tahun kebelakangan ini, syarikat media sosial telah sentiasa membangun keupayaan untuk mengesan dan menyekat tingkah laku automatik. Oleh itu, pelakon jahat yang bersenjata dengan AI yang menghasilkan teks perlu mengatasi beberapa cabaran yang melampaui membuat kandungan yang unik.
Sebagai contoh, mereka memerlukan beribu-ribu akaun media sosial palsu di mana untuk menghantar kandungan AI yang dijana mereka. Lebih sukar lagi, untuk memastikan bahawa tiada cara untuk menyambung akaun palsu, mereka memerlukan peranti unik dan alamat IP untuk setiap akaun.
Ia semakin teruk: Akaun-akaun itu perlu diwujudkan pada masa yang berlainan, mungkin lebih setahun atau lebih, untuk mengurangkan persamaan. Tahun lepas, siasatan New York Times menunjukkan bahawa tarikh penciptaan akaun sahaja boleh membantu mencari akaun bot. Kemudian untuk terus menyembunyikan sifat automatik mereka dari pengguna lain dan algoritma policing, akaun-akaun tersebut perlu melibatkan diri dalam tingkah laku manusia, seperti berinteraksi dengan pengguna lain dan menetapkan nada unik dalam jawatan mereka.
Tiada satu pun daripada cabaran ini yang mustahil untuk diatasi, tetapi mereka menunjukkan bahawa kandungan adalah hanya satu bahagian dari usaha yang diperlukan untuk menjalankan dalam kempen media palsu berita sosial. Dan sekali lagi, kepercayaan memainkan peranan penting. Beberapa penyokong media sosial yang dipercayai meletakkan beberapa jawatan berita palsu akan memberi kesan yang lebih besar daripada sekumpulan akaun yang tidak diketahui yang menjana jumlah kandungan yang besar.
Dalam Pertahanan Amaran OpenAI
Amaran Terbesar OpenAI mencetuskan kitaran media dan panik yang, ironinya, bersempadan dengan berita palsu itu sendiri, mendorong kritikan daripada pakar AI yang terkenal.
Mereka menjemput orang media untuk mendapatkan akses awal kepada keputusan, dengan sekatan akhbar sehingga semuanya terbuka pada hari yang sama. Tiada penyelidik yang saya tahu mesti melihat model besar, tetapi wartawan tidak. Ya, mereka sengaja meniupnya.
- Matt Gardner (@nlpmattg) 19 Februari 2019
Setiap manusia baru boleh digunakan untuk menjana berita palsu, menyebarkan teori konspirasi, dan mempengaruhi orang.
Sekiranya kita berhenti membuat bayi kemudian?
- Yann LeCun (@ylecun) 19 Februari 2019
Hanya mahu memberi anda semua kepala, makmal kami mendapati satu kejayaan hebat dalam pemahaman bahasa. tetapi kita juga bimbang ia mungkin jatuh ke tangan yang salah. jadi kami memutuskan untuk memo dan hanya menerbitkan barang * ACL biasa. Hormati yang besar untuk pasukan untuk kerja hebat mereka.
- (((? () (? () 'Yoav)))) (@yoavgo) 15 Februari 2019
Zachary Lipton, penyelidik AI dan editor Kira-kira Betul, menunjuk kepada sejarah OpenAI untuk "menggunakan blog mereka dan mengagihkan perhatian untuk melontarkan kerja yang belum matang ke pandangan awam, dan sering memainkan aspek keselamatan kerja manusia yang belum mempunyai intelektual kaki untuk berdiri."
Walaupun OpenAI berhak menerima semua kritikan dan kepanasan yang diterima selepas kenyataannya yang mengelirukan, adalah benar untuk benar-benar bimbang tentang kemungkinan penggunaan teknologi yang berniat jahat, walaupun syarikat itu menggunakan cara yang tidak bertanggungjawab untuk mendidik orang ramai mengenainya.
- Tahun Penghitungan Etika Industri AI Tahun Pengiraan Etika Industri AI
- Kelebihan Tidak Sihat: Jangan Harapkan AI untuk Bermain Seperti Keuntungan Tidak Sihat Manusia: Jangan Harapkan AI untuk Bermain Seperti Manusia
- AI ini Ramalan Trolling Online Sebelum Ia Berlaku Ini AI Ramalan Trolling Online Sebelum Ia Terjadi
Dalam tahun-tahun yang lalu, kami telah melihat bagaimana teknologi AI telah dipublikasikan tanpa pemikiran dan refleksi yang boleh digunakan untuk niat jahat. Salah satu contoh ialah FakeApp, aplikasi AI yang boleh menukar wajah dalam video. Tidak lama selepas FakeApp dibebaskan, ia digunakan untuk membuat video lucah palsu yang menampilkan selebriti dan ahli politik, yang menyebabkan keprihatinan terhadap ancaman pemalsuan AI yang berkuasa.
Keputusan OpenAI menunjukkan bahawa kita perlu berhenti seketika dan berfikir mengenai ramalan-ramalan yang mungkin teknologi melepaskan secara terbuka. Dan kita perlu mengadakan perbincangan yang lebih aktif mengenai risiko teknologi AI.
"Satu organisasi yang menghentikan satu projek tertentu tidak akan mengubah apa-apa jangka panjang, tetapi OpenAI mendapat banyak perhatian untuk apa-apa yang mereka lakukan… dan saya fikir mereka harus bertepuk tangan kerana menonjolkan isu ini, " David Bau, seorang penyelidik di Sains Komputer MIT dan Makmal Perisikan Buatan (CSAIL), memberitahu Slate.