Rumah Pendapat Kemalangan kereta memandu sendiri Uber: adakah kita gagal?

Kemalangan kereta memandu sendiri Uber: adakah kita gagal?

Isi kandungan:

Video: Maut tercampak ketinggian 5 meter (November 2024)

Video: Maut tercampak ketinggian 5 meter (November 2024)
Anonim

Pada 12 Mac, Kajian Teknologi MIT menjalankan kisah yang bermula seperti ini: "Ia adalah tahun 2023, dan kereta memandu sendiri akhirnya menavigasi jalan-jalan bandar kami. Buat pertama kali, salah seorang daripada mereka telah melanda dan membunuh pejalan kaki, dengan liputan media yang besar. Satu tuntutan mahkamah berprofil tinggi mungkin, tetapi undang-undang apa yang perlu dipakai?"

Segala-galanya mengenai ramalan itu betul, kecuali untuk tarikh itu. Tepat satu minggu selepas artikel itu diterbitkan, Uber yang memandu sendiri memukul dan membunuh pejalan kaki di Tempe, Arizona, sambil berfungsi dalam mod autonomi.

Walaupun insiden itu masih disiasat, kekecohan yang berlaku adalah petunjuk sejauh mana kita berjaya mengintegrasikan kecerdasan buatan ke dalam tugas dan keputusan penting kita.

Dalam banyak kes, masalahnya bukan dengan AI tetapi dengan jangkaan dan pemahaman kami. Menurut Wired , hampir 40, 000 orang meninggal dunia dalam insiden jalanan tahun lepas di AS sahaja-6, 000 daripadanya adalah pejalan kaki. Tetapi sangat sedikit (jika ada) menjadi tajuk utama seperti kejadian Uber.

Salah satu sebab kejatuhan Uber menyebabkan kekecohan seperti ini adalah bahawa kita umumnya mempunyai jangkaan tinggi terhadap teknologi baru, walaupun ketika ini masih dalam pembangunan. Di bawah ilusi bahawa matematik tulen memacu algoritma AI, kita cenderung untuk mempercayai keputusan mereka dan terkejut apabila mereka membuat kesilapan.

Malah pemandu keselamatan di belakang roda kereta memandu sendiri membiarkan pengawal mereka turun. Rakaman dari kejadian Uber menunjukkan pemandu terganggu, melihat ke bawah beberapa saat sebelum kemalangan itu berlaku.

Pada 2016, pemandu model Tesla S yang beroperasi dalam mod Autopilot meninggal dunia selepas kenderaan itu jatuh ke dalam trak. Siasatan mendapati pemandu mungkin menonton filem Harry Potter pada masa perlanggaran itu.

Harapan kesempurnaan adalah tinggi, dan kekecewaan berkuasa. Pengkritik segera membawa projek kereta memandu sendiri Uber ke dalam soalan selepas insiden tersebut; syarikat itu telah menggantung ujian kereta memandu sendiri secara sementara selepas itu.

AI Tidak Manusia

Antara kritikan yang menyusuli kemalangan adalah bahawa pemandu manusia akan dengan mudah mengelakkan kejadian tersebut.

"tidak melompat keluar dari semak. Dia telah membuat kemajuan yang jelas di pelbagai laluan lalu lintas, yang sepatutnya berada dalam sistem untuk dijemput, " kata seorang pakar kepada CNN.

Dia betul. Seorang pemandu manusia berpengalaman mungkin akan melihatnya. Tetapi algoritma AI bukan manusia.

Algoritma pembelajaran mendalam yang terdapat dalam kereta memandu sendiri menggunakan banyak contoh untuk "mempelajari" peraturan domain mereka. Semasa mereka meluangkan masa di jalan raya, mereka mengklasifikasikan maklumat yang mereka kumpulkan dan belajar mengendalikan situasi yang berbeza. Tetapi ini tidak bermakna mereka menggunakan proses membuat keputusan yang sama sebagai pemandu manusia. Itulah sebabnya mereka mungkin melakukan yang lebih baik daripada manusia dalam beberapa situasi dan gagal dalam apa yang kelihatan remeh kepada manusia.

Contoh yang sempurna adalah algoritma klasifikasi imej, yang belajar untuk mengenali imej dengan menganalisis berjuta-juta gambar berlabel. Selama bertahun-tahun, klasifikasi imej telah menjadi super-cekap dan mengalahkan manusia dalam banyak keadaan. Ini tidak bermakna algoritma memahami konteks imej dengan cara yang sama seperti manusia lakukan.

Sebagai contoh, penyelidikan oleh pakar di Microsoft dan Stanford University mendapati bahawa algoritma pembelajaran mendalam dilatih dengan imej kucing putih yang dipercayai dengan tahap kepercayaan yang tinggi bahawa gambar anjing putih mewakili kucing, kesilapan seorang anak manusia dapat dengan mudah mengelakkan. Dan dalam kes yang terkenal, algoritma klasifikasi imej Google secara keliru mengelaskan orang warna kulit gelap sebagai gorila.

Ini disebut "kes tepi, " situasi yang algoritma AI belum dilatih untuk mengendalikan, biasanya kerana kekurangan data. Kemalangan Uber masih dalam siasatan, tetapi beberapa pakar AI menyarankan ia boleh menjadi satu lagi kes.

Pembelajaran yang mendalam mempunyai banyak cabaran untuk diatasi sebelum ia boleh digunakan dalam situasi kritikal. Tetapi kegagalannya tidak boleh menghalang kita. Kita mesti menyesuaikan persepsi dan harapan kita dan merangkumi realiti bahawa setiap teknologi hebat gagal semasa evolusi. AI tidak berbeza.

Kemalangan kereta memandu sendiri Uber: adakah kita gagal?