COLORADO, iNewsTTU.id - Teknologi berkembang pada tingkat yang menakutkan dan memperingatkan bahwa itu tidak boleh berkembang di luar kemampuan kita untuk mengendalikannya.
Hal itu disampaikan oleh seorang peneliti kecerdasan buatan terkemuka AI Geoffrey Hinton. Dia bergabung banyak pemimpin dunia, termasuk Paus Fransiskus, yang ingin memastikan masalah etika dibangun di dasar teknologi.
Ia seorang peneliti lama di Google yang baru saja pensiun pada usia 75 tahun, menambahkan pendapatnya kepada orang-orang yang mengatakan bahwa potensi bahaya dari teknologi baru ini perlu dicermati.
"Perangkat lunak seperti sistem chatbot GPT-4, yang dikembangkan oleh start-up San Francisco OpenAI, melampaui seseorang dalam jumlah pengetahuan umum yang dimilikinya dan jauh melampaui mereka," katanya kepada BBC News.
"Dalam hal penalaran, itu tidak bagus, tapi sudah melakukan penalaran sederhana.Dan mengingat tingkat kemajuan, kami berharap segalanya menjadi lebih baik dengan cukup cepat. Jadi kita perlu khawatir tentang itu," katanya lebih lanjut.
Dikatakan, GPT-4 adalah model pembelajaran besar yang dilatih pada sejumlah besar data dan teks sejarah dan kontemporer yang ditulis oleh penulis manusia.
Itu dapat menghasilkan teks sendiri dan menghasilkan posting blog, puisi, dan program komputer. Itu dapat terlibat dalam percakapan seperti manusia dan memberikan jawaban atas pertanyaan, lapor New York Times.
Namun, sistem ini masih dalam tahap awal pengembangan dan menunjukkan berbagai kekurangan, meskipun berbicara dengan percaya diri, GPT-4 menyajikan informasi yang salah sebagai faktual dan mengarang informasi dalam insiden yang oleh peneliti disebut halusinasi.
Sistem serupa dapat menghasilkan gambar dan video bergaya audio dan fotorealistik yang meyakinkan dan terkadang meniru model orang sungguhan.
Saat ini, versi awal kecerdasan buatan ini kurang memiliki kesadaran diri. Ada perdebatan tentang apakah kesadaran diri mungkin untuk kreasi digital.
Hinton, yang sekarang tinggal di Kanada, adalah pelopor dalam pembuatan dan desain “jaringan saraf”, jenis infrastruktur pemrograman yang membantu komputer mempelajari keterampilan baru dan bentuk analisis. Ini digunakan di banyak sistem AI.
Dia dan dua kolaborator memenangkan penghargaan tertinggi dalam bidang komputasi, Penghargaan Turing, pada tahun 2018. Dalam analisis Hinton, sistem AI yang sedang dikembangkan ini sangat berbeda dari perangkat lunak yang biasa digunakan orang.
"Saya sampai pada kesimpulan bahwa jenis kecerdasan yang kita kembangkan sangat berbeda dengan kecerdasan yang kita miliki," ungkapnya.
Tidak seperti kecerdasan biologis manusia, ada banyak salinan dari sistem digital yang sama dengan model dunia yang sama. Meskipun mereka dapat belajar secara terpisah, mereka membagikan pengetahuan mereka secara instan.
"Jadi seolah-olah Anda memiliki 10.000 orang dan setiap kali satu orang mempelajari sesuatu, semua orang secara otomatis mengetahuinya. Dan begitulah chatbots ini dapat mengetahui lebih banyak daripada satu orang," lanjutnya.
Bagi Hinton, satu skenario kasus terburuk atau mimpi buruk adalah jika robot dikembangkan dan diberi kemampuan untuk membuat sub-tujuannya sendiri, kemudian memutuskan tujuannya adalah memaksimalkan kekuatannya sendiri.
Apa risiko kecerdasan buatan?
Peneliti lain telah menyuarakan keprihatinan bahwa sistem AI ini menimbulkan risiko dalam jangka pendek, menengah, dan panjang. Bahaya awal termasuk orang yang salah mempercayai disinformasi yang lebih efektif dan lebih meyakinkan, termasuk informasi palsu yang disajikan secara meyakinkan oleh AI.
Penipu dan penjahat mungkin membuat panggilan telepon palsu yang meniru suara kerabat yang mengaku dalam bahaya dan membutuhkan uang dengan cepat.
Misalkan, Paus Fransiskus baru-baru ini menjadi subjek foto palsu buatan komputer yang tersebar luas. Gambar Paus yang mengenakan mantel puffer putih bergaya menjadi viral di situs media sosial dengan banyak orang tampaknya salah mengira foto palsu itu sebagai foto asli.
Jika AI berhasil mengotomatiskan lebih banyak tugas yang saat ini dilakukan oleh orang-orang, pengangguran bisa menjadi masalah, beberapa ketakutan.
New York Times melaporkan, moderator konten internet, paralegal, asisten pribadi, dan penerjemah dapat melihat pekerjaan mereka di bawah tekanan atau diganti.
Risiko jangka panjang, seperti sistem AI yang lepas dari kendali manusia dan bahkan menghancurkan umat manusia, telah lama menjadi pokok fiksi ilmiah.
Beberapa ahli mengutip perilaku tak terduga dari sistem AI yang saat ini sedang dikembangkan. Jika sistem AI saling terkait dengan layanan internet lainnya dan menjadi sangat kuat sehingga mereka dapat menulis kodenya sendiri untuk memodifikasi dirinya sendiri, AI yang lepas kendali dapat menjadi bahaya yang nyata.
Editor : Sefnat Besie
Artikel Terkait