Isi kandungan:
Video: Belajar Dari Alexandr Misko (George Michael - Careless Whisper) (November 2024)
Peranti Amazon Echo baru-baru ini mencatatkan perbualan peribadi pengguna dan menghantarnya ke salah satu kenalan mereka tanpa pengetahuan dan persetujuan mereka. Ini (sekali lagi) menimbulkan kebimbangan mengenai keselamatan dan privasi penceramah pintar. Seperti yang kemudiannya menjadi jelas, walaupun kelakuan pelik Alexa bukan sebahagian daripada plot spionase jahat-sebaliknya, ia disebabkan oleh satu siri kegagalan berkaitan disebabkan oleh penceramah pintar yang berfungsi.
Senario ini merupakan kes kelebihan, jenis insiden yang berlaku sangat jarang berlaku. Tetapi ia juga satu kajian yang menarik dalam had teknologi kecerdasan buatan yang menguatkan Echo dan lain-lain yang dipanggil "pintar" peranti.
Terlalu Banyak Ketergantungan Awan
Untuk memahami arahan suara, penceramah pintar seperti Echo dan Google Home bergantung kepada algoritma pembelajaran yang mendalam, yang memerlukan kuasa pengkomputeran yang luas. Oleh kerana mereka tidak mempunyai sumber pengkomputeran untuk melaksanakan tugas di dalam negara, mereka mesti menghantar data ke pelayan awan pengeluar, di mana algoritma AI mengubah data ucapan untuk teks dan memproses arahan.
Tetapi penceramah pintar tidak boleh menghantar semua yang mereka dengar ke pelayan awan mereka, kerana itu memerlukan pengeluar untuk menyimpan jumlah data yang berlebihan di pelayan mereka-yang sebahagian besarnya tidak berguna. Rakaman dan menyimpan perbualan secara peribadi yang berlaku di rumah pengguna juga akan memberikan cabaran privasi dan boleh mendapatkan pengeluar dalam masalah, terutamanya dengan peraturan privasi data baru yang meletakkan sekatan yang teruk mengenai bagaimana syarikat-syarikat berteknologi menyimpan dan menggunakan data.
Itulah sebabnya penceramah pintar direka untuk dicetuskan selepas pengguna memasukkan kata-kata bangun seperti "Alexa" atau "Hey Google." Hanya selepas mendengar perkataan bangun, mereka mula menghantar input mikrofon mereka ke awan untuk analisis dan pemprosesan.
Walaupun ciri ini meningkatkan privasi, ia memperlihatkan cabarannya sendiri, kerana kejadian Alexa terkini yang ditonjolkan.
"Jika perkataan-atau sesuatu yang terdengar sangat mirip dengannya-dihantar di tengah-tengah perbualan, Alexa tidak akan mempunyai konteks sebelumnya, " kata Joshua March, Ketua Pegawai Eksekutif Conversocial. "Pada ketika itu, ia mendengar sangat keras untuk apa-apa perintah yang berkaitan dengan kemahiran yang telah anda tetapkan (seperti apl pemesejan mereka). Sebagian besar, privasi sangat dipertingkatkan dengan menyekat konteks yang Alexa memberi perhatian kepada (seperti ia tidak merakam atau mendengar mana-mana perbualan biasa anda), walaupun ia berlaku dalam kes ini."
Kemajuan dalam pengkomputeran tepi mungkin membantu mengurangkan masalah ini. Oleh kerana AI dan pembelajaran mendalam mencari jalan masuk ke lebih banyak peranti dan aplikasi, sesetengah pengeluar perkakasan telah mencipta pemproses khusus untuk melaksanakan tugas AI tanpa terlalu bergantung pada sumber awan. Pemproses Edge AI boleh membantu peranti seperti Echo lebih memahami dan memproses perbualan tanpa melanggar privasi pengguna dengan menghantar semua data ke awan.
Konteks dan Niat
Selain menerima kepingan audio yang berbeza dan berpecah, AI Amazon berjuang dengan memahami nuansa perbualan manusia.
"Walaupun terdapat banyak kemajuan dalam pengajaran mendalam sejak beberapa tahun kebelakangan ini, membolehkan perisian untuk memahami ucapan dan imej lebih baik daripada sebelumnya, masih terdapat banyak had, " kata March. "Walaupun pembantu suara dapat mengiktiraf kata-kata yang anda katakan, mereka tidak semestinya mempunyai pemahaman yang nyata ke dalam makna atau niat di belakangnya. Dunia adalah tempat yang kompleks, tetapi mana-mana sistem AI hari ini hanya dapat mengendalikan sangat kes penggunaan khusus dan sempit."
Sebagai contoh, kita manusia mempunyai banyak cara untuk menentukan sama ada satu kalimat ditujukan kepada kita, seperti nada suara, atau mengikuti petunjuk visual-katakan, arah penceramah itu kelihatan.
Sebaliknya, Alexa menganggap bahawa ia adalah penerima apa-apa kalimat yang mengandungi perkataan "A". Inilah sebabnya pengguna sering mencetuskan secara tidak sengaja.
Sebahagian daripada masalah ini ialah kita membesar-besarkan keupayaan aplikasi AI semasa, sering meletakkannya setanding dengan atau di atas minda manusia dan meletakkan terlalu banyak kepercayaan pada mereka. Itulah sebabnya kami terkejut apabila mereka gagal.
"Sebahagian daripada isu di sini adalah bahawa istilah 'AI' telah begitu agresif dipasarkan bahawa pengguna telah meletakkan sejumlah besar kepercayaan terhadap produk dengan istilah ini terikat kepada mereka, " kata Pascal Kaufmann, pakar neurosains dan pengasas Starmind. "Kisah ini menggambarkan bahawa Alexa mempunyai banyak keupayaan dan pemahaman yang agak terhad mengenai bagaimana dan kapan ia perlu digunakan dengan sewajarnya."
Algoritma pembelajaran jauh terdedah kepada kegagalan apabila mereka menghadapi tetapan yang menyimpang dari data dan senario mereka dilatih. "Salah satu ciri yang mendefinisikan AI peringkat manusia akan menjadi kecekapan yang mencukupi dan pemahaman sebenar kandungan, " kata Kaufmann. "Ini adalah bahagian yang sangat penting untuk benar-benar menganggap AI 'pintar, ' dan penting untuk perkembangannya. Mewujudkan pembantu digital yang sedar diri, yang membawa mereka pemahaman penuh tentang sifat manusia, akan menandakan transformasi mereka dari sesuatu yang menyenangkan kepada sesuatu yang benar-benar alat berguna."
Tetapi mewujudkan tahap AI manusia, juga disebut sebagai umum AI, lebih mudah dikatakan daripada dilakukan. Selama beberapa dekad, kami telah berfikir ia hanya sekitar sudut, hanya untuk menjadi kecewa kerana kemajuan teknologi telah menunjukkan betapa rumit minda manusia. Ramai pakar percaya mengejar umum AI sia-sia.
Sementara itu, AI sempit (sebagai teknologi kecerdasan buatan semasa diterangkan) masih membentangkan banyak peluang dan boleh diperbaiki untuk mengelakkan mengulangi kesilapan. Untuk menjadi jelas, pembelajaran mendalam dan pembelajaran mesin masih baru, dan syarikat seperti Amazon terus memperbaharui algoritma AI mereka untuk menangani kes tepi setiap kali ia berlaku.
Apa yang Kita Perlu Lakukan
"Ini adalah bidang yang baru dan muda. Pengertian Bahasa Semula jadi terutama di peringkat awal, jadi banyak yang boleh kita lakukan di sini, " kata Eric Moller, CTO Atomic X.
Moller percaya suara-analisis algoritma AI dapat ditala untuk lebih memahami intonasi dan infleksi. "Menggunakan perkataan 'Alexa' dalam kalimat yang lebih luas terdengar berbeza dari satu doa atau perintah. Alexa tidak boleh bangun kerana anda mengatakan nama itu berlalu, " kata Moller. Dengan latihan yang mencukupi, AI harus dapat membezakan nada spesifik mana yang diarahkan kepada penceramah pintar.
Syarikat-syarikat teknikal juga boleh melatih AI mereka untuk dapat membezakan apabila ia menerima bunyi latar belakang berbanding dengan bercakap dengan terus. "Obrolan latar belakang mempunyai tandatangan 'pendengaran' yang unik bahawa manusia sangat baik dalam memilih dan memilih secara tepat. Tidak ada alasan mengapa kita tidak boleh melatih model AI untuk melakukan perkara yang sama, " kata Moller.
Sebagai langkah berjaga-jaga, pembantu AI harus menilai kesan keputusan yang mereka buat dan melibatkan keputusan manusia dalam keadaan di mana mereka ingin melakukan sesuatu yang berpotensi sensitif. Pengilang harus membakar lebih banyak perlindungan ke dalam teknologi mereka untuk mencegah maklumat sensitif daripada dihantar tanpa persetujuan jelas dan jelas pengguna.
"Walaupun Amazon melaporkan bahawa Alexa cuba untuk mengesahkan tindakan yang ditafsirkan, beberapa tindakan perlu dikendalikan dengan lebih berhati-hati dan memegang standard pengesahan yang lebih tinggi dari niat pengguna, " kata Sagi Eliyahi, CEO Tonkean. "Manusia mempunyai masalah pengiktirafan ucapan yang sama, kadang-kadang memanggil permintaan. Tidak seperti Alexa, manusia lebih cenderung mengesahkan sama sekali bahawa mereka memahami permintaan yang tidak jelas dan, yang lebih penting, mengukur kemungkinan permintaan dibandingkan dengan permintaan masa lalu."
Dalam masa yang…
Walaupun syarikat-syarikat berteknologi membuat aplikasi AI mereka untuk mengurangkan kesilapan, pengguna perlu membuat keputusan muktamad tentang betapa mereka mahu terdedah kepada kemungkinan kesalahan yang mungkin dibuat oleh peranti berkuasa AI mereka.
"Kisah-kisah ini menunjukkan konflik dengan jumlah data yang orang bersedia berkongsi dengan janji teknologi AI baru, " kata Doug Rose, pakar sains data dan penulis beberapa buku mengenai AI dan perisian. "Anda mungkin akan mengusik Siri kerana perlahan tetapi cara terbaik untuk dia mencapai kecerdasan yang lebih tinggi adalah dengan menyerang perbualan peribadi kami. Jadi soalan utama sepanjang dekad yang akan datang ialah sejauh mana kami membenarkan agen-agen AI ini untuk melihat ke dalam tingkah laku kami ?"
"Keluarga mana yang akan meletakkan pembantu manusia di ruang tamu dan biarkan orang itu mendengar apa-apa jenis perbualan sepanjang masa?" kata Kaufmann, ahli sains saraf dari Starmind. "Kita sekurang-kurangnya harus menggunakan piawaian yang sama dengan peranti 'AI' yang disebut (jika tidak lebih tinggi) yang kita juga terpakai kepada makhluk pintar manusia apabila ia berkaitan dengan privasi, kerahsiaan atau kebolehpercayaan."