Heru Subagia: Kecerdasan Buatan Itu Bodoh

Pengamat Sosial dan Politik Heru Subagia
Pengamat Sosial dan Politik Heru Subagia
0 Komentar

Jika Anda menginginkan esai lima paragraf tentang kelelawar—apa mereka, di mana mereka tinggal, apa yang mereka makan—ChatGPT dapat melakukannya untuk Anda. Namun, ia tidak memiliki ide.

Jika Anda menginginkannya untuk menjelaskan, misalnya, wacana berbelit-belit di sekitar film Everything Everywhere All at Once, Anda dalam masalah. Ia paling banter akan menyaring dari kritik yang ada untuk membangun beberapa campuran yang tampak serupa. (Memang, ia melakukan ini ketika ditanya tentang reaksi keras terhadap EEAAO, menunjuk pada “politik,” “representasi,” dan “kompleksitas” film tersebut, yang merupakan jawaban yang cukup bagus dan tidak memuaskan.)

Itulah hal yang terlalu sering tidak dikatakan di tengah gelombang sensasi AI baru-baru ini: Bahkan ketika ia dapat menghasilkan sesuatu yang meniru pemikiran kritis, ia benar-benar hanya menciptakan pastiche, yang ditiru dari sumber manusia.

Baca Juga:Song Jae-rim Ditemukan Meninggal Penyebab Kematian Belum Terkonfirmasi, Ada 2 Lembar SuratPernah Ditolak Amerika Serikat, Kini Presiden Prabowo Subianto Menuju Washington

Seperti mesin pencari, program kecerdasan buatan masih bergantung pada kita: manusia yang memprogramnya, dan pembuat konten yang sebenarnya yang terus-menerus mereka jelajahi.

Ada pertanyaan etika dan filosofis penting yang perlu dijawab saat kita bersiap untuk membawa teknologi ini ke tempat yang lebih menonjol. ChatGPT memang berpotensi menyebarkan misinformasi.

Tentu saja, begitu juga setiap media lain yang biasa kita gunakan. Namun perbedaannya adalah ada kesan objektivitas dengan ChatGPT—ini sebagian berasal dari gaya penulisannya yang netral dan antiseptik.

Tentu saja, seperti banyak kekhawatiran seputar misinformasi, bahkan kekhawatiran ini terlalu dibesar-besarkan dan bersifat membenci manusia. Ini mengasumsikan tingkat kepasifan di antara konsumen, bahwa mereka benar-benar akan mempercayai apa pun yang mereka temui; bahwa banyak, jika tidak semua, tindakan jahat yang telah kita lihat selama beberapa tahun terakhir adalah hasil dari orang-orang yang tertipu. Ini adalah pemikiran yang menenangkan dan paternalistis, tetapi tidak ada bukti yang mendukungnya.

Saya mengakhiri tulisan dengan serangkaian pertanyaan: “Bisakah kita belajar, cukup cepat, untuk menantang daripada menurut? Atau apakah pada akhirnya kita akan dipaksa untuk tunduk? Apakah yang kita anggap sebagai kesalahan merupakan bagian dari desain yang disengaja? Bagaimana jika unsur kedengkian muncul dalam AI?”

0 Komentar