Seperti banyak anak sebelumnya, putri saya yang berusia 9 tahun ditipu dengan janji mainan. Yang ini adalah robot yang didukung AI. Ia membayangkan dirinya berbicara secara lancar dan saling tukar informasi dengan robot itu. Ia ingin robot itu menceritakan kisah-kisah kepadanya. Dan saya mengakui, saya juga merasa ini terlihat keren.
Kami membuka kotaknya, saya mengatur beberapa kontrol orang tua dengan cepat, dan dia meminta robot itu menceritakan sebuah cerita tentang naga. Robot itu mulai dengan baik, memberi nama naga itu Ember dan menggambarkan bahwa ia bertanggung jawab menjaga harta karun. Kemudian ia bertanya kepada putri saya jenis kekuatan super apa yang harus dimiliki naga itu.
“Bernapas asam,” katanya.
“Saya minta maaf, tapi itu adalah topik untuk orang dewasa,” katanya. “Mari tanyakan kepada orang tua atau guru Anda saja.” Apakah itu mengira dia mengatakan “a**” alih-alih “asam”, meskipun transkrip percakapan jelas-jelas menyebutkan “asam”?
“Ember seharusnya memiliki napas es,” katanya.
Saya minta maaf, tapi itu adalah topik untuk orang dewasa,” katanya. “Mari tanyakan kepada orang tua atau guru Anda saja.
Apakah saya mengatur kontrol orang tua terlalu tinggi? Bahkan setelah saya menghapus semuanya demi eksperimen, anak saya tidak pernah bisa mendapatkan percakapan mudah dengan robot yang dijanjikan. Akhirnya, kami menjadi sangat frustrasi hingga membuangnya ke tempat sampah—putri saya mengatakan itu bekerja terlalu buruk untuk bahkan mencoba memberikannya sebagai hadiah atau meletakkannya di tepi jalan agar seseorang mengambilnya.
Saat ini, ini bukanlah pengecualian terkait mainan yang didukung AI. Mereka menawarkan janji besar, tetapi sering kali tidak memenuhi harapan (paling tidak mainan yang telah diuji oleh Institute Rumah Tangga yang Baik). Kemudian ada kekhawatiran tentang moderasi konten, privasi, dan keterikatan emosional yang sering kali tidak ditangani. Kombinasikan semuanya dengan harga yang sering kali tinggi, dan kami siap mengatakan bahwa, untuk saat ini, mereka belum memenuhi hype yang ada.
Mainan yang Didukung AI Penuh dengan Masalah Teknis
Masalah dengan robot AI yang saya uji adalah bahwa ia tidak memahami apa yang dikatakan putri saya. Ia bertanya padanya, “Dua ditambah dua berapa?” hanya untuk memberinya sesuatu yang mudah dijawab. Berdasarkan transkrip percakapan tersebut, ia mengira putri saya berkata, “Apa itu supers do?” dan memberikan jawaban tentang kekuatan super. (Saya tidak pernah bisa memahami mengapa ia menganggap “napas es” terlalu dewasa untuk dibicarakan. Apakah ia mengira putri saya membuat referensi narkoba?)
Anak perempuan saya mungkin bukan pembicara yang jelas, tapi apa anak berusia 9 tahun yang jelas? Kebenarannya, ini umum terjadi pada jenis teknologi ini untuk salah memahami anak-anak. “Kami melihat ini juga dengan speaker pintar untuk anak-anak,” kataElizabeth Goldman, Ph.D., seorang profesor madya psikologi yang memimpinLab Teknologi Anak-Anakdi Yeshiva University. “Saat mereka pertama kali memperkenalkan produk tersebut ke pasar, mereka pada dasarnya mengambil yang sebelumnya digunakan untuk orang dewasa, membuatnya sedikit lebih kecil, membuatnya menarik dan berwarna-warni, dan mencoba memasukkannya ke ruang anak-anak.”Tetapi kenyataannya adalah mereka kesulitan memahami apa yang dikatakan anak-anak.Anak-anak tidak mengucapkan kata-kata sejelas orang dewasa. Mereka berbicara dengan suara rendah. Terkadang beberapa anak malu, jadi mereka tidak akan berbicara terlalu keras. Jadi ada banyak frustrasi.” Dr. Goldman menambahkan bahwa speaker pintar awalnya juga tidak menyesuaikan responsnya untuk anak-anak, membuatnya terlalu panjang atau terlalu rinci.
Dan kemudian ada fakta bahwa anak-anak dapat merasa tidak nyaman dengan mainan yang didukung AI. Institute Good Housekeeping belum memiliki kesempatan untuk mencoba sebuahtondari mainan yang didukung AI selama inipengujian mainan tahunantetapi yang telah kami dapatkan memiliki ulasan negatif secara umum dari para pengujinya.
Lexie Sachs, Direktur Eksekutif, Strategi dan Operasi untuk Institute Good Housekeeping, mencoba sebuah beruang mainan yang didukung AI bersama keluarganya. “Ketika kami menyalakan beruang itu pertama kali, ia mulai berbicara dengan ucapan yang tidak jelas,” katanya. “Anda bisa mendengar beruang itu sedang berbicara, tetapi tidak membentuk kata-kata nyata dan terdengar seperti sedang marah-marah.”Putri saya panik dan melemparkannya ke belakang lemari dan tidak pernah melihatnya lagi.Mungkin terjadi gangguan teknis ketika kami pertama kali menyalakannya, tetapi luka itu membuatnya enggan pernah ingin melihatnya lagi.
Ia bukan satu-satunya yang merespons demikian. “Awalnya dia tertarik padanya,” kata seorang pengujinya Institute Good Housekeeping, seorang orang tua dari anak berusia 5 tahun, tentang beruang yang sama itu. “Tapi beberapa kali terakhir ketika saya menyalakannya, atau dia secara tidak sengaja bersandar dan itu mulai berbicara, dia berteriak, ‘Tidak, ini menakutkan!’ lalu melemparkannya ke seluruh ruangan.”
Mainan AI Akan Lebih Baik. Lalu Bagaimana?
Saya cukup yakin bahwa, ketika saya memberikan mainan berbicara kepada putri saya saat dia masih kecil, dia mampu memahami bahwa mainan itu bukanlah…benar-benarsedang berbicara dengannya. Dulu, mainan itu tidak cukup realistis untuk meyakinkannya sebaliknya.
Dr. Goldman mengatakan studi menunjukkan hal itu. “Ada banyak penelitian yang menunjukkan bahwa, bahkan jika kita melihat sesuatu seperti mainan robotik yang memiliki kendali jarak jauh atau bahkan aplikasi di ponsel atau tablet, anak-anak benar-benar merekamnya,” katanya. “Mereka tahu orang yang menggunakan remote tersebut adalah orang yang mengendalikan dan mengaktifkan mainan atau robot itu.”
Ketika orang yang mengendalikan remote pergi dan mengoperasikan mainan dari balik layar, namun, hal itu bisa menjadi lebih membingungkan bagi anak-anak. “Ini benar-benar mengubah cara mereka memandang dan berinteraksi dengan robot,” katanya. “Mereka tidak selalu memahami atau percaya bahwa ada seseorang yang tersembunyi atau bersembunyi yang mengaktifkan dan menggunakan remote kontrol ini.”
Jadi, apa yang terjadi ketika tidak ada orang dengan remote control di mana-mana—bagaimana hal itu mengubah hubungan seorang anak terhadap mainan? Apa yang mereka pikirkan yang menggerakkan beruang bermain AI yang bisa berbicara? Apakah mereka mampu memahami bahwa AI itu bukan “nyata”? Apakah mereka tahu apa yang “di dalam” speaker pintar, atau siapa yang memberi jawaban kepada orang tua mereka ketika mereka bertanya kepada ChatGPT?
Meskipun mainan AI masih terlalu baru untuk memiliki banyak penelitian, Dr. Goldman menawarkan beberapa studi yang menenangkan. Dalam satu studi yang dilakukan pada awal tahun 2000-an, anak-anak ditunjukkan gambar hewan, manusia, dan teknologi seperti komputer atau perekam suara. Kemudian mereka ditanya apa yang ada di dalam gambar-gambar tersebut: kabel dan roda gigi, atau tulang dan organ? “Banyak anak berusia 5 tahun tahu jawabannya,” katanya. “Mereka tahu hewan memiliki bagian dalam biologis, dan mereka tahu bahwa banyak teknologi seperti robot memiliki bagian dalam mekanis.”
“Tapi anak-anak berusia 3 tahun cukup baik dalam hal-hal yang mereka kenal, seperti hewan dan banyak teknologi, seperti laptop atau tablet,” tambahnya. “Tetapi mereka tidak terlalu baik ketika datang ke robot.” Penelitian lain menunjukkan bahwa semakin manusiawi bentuk sebuah robot—jika memiliki dada, wajah, atau bisa membuat ekspresi wajah—semakin besar kemungkinan anak-anak mengasosiasikan perasaan, pikiran, dan kemampuan manusia pada robot tersebut.
Lima tahun juga merupakan usia di mana anak-anak mulai mempercayai informasi berdasarkan akurasi informasi tersebut, bukan berdasarkan orang yang menyampaikannya. Uji coba ini melibatkan anak-anak yang mendapatkan informasi dari dua sumber: satu manusia dan satu robot. Sumber-sumber ini memberi label pada benda-benda rumah tangga umum, lalu beberapa benda yang mungkin tidak dikenal anak-anak (seperti alat penghisap daging ayam), dengan label yang benar atau kata-kata tidak bermakna. Kemudian mereka ditanya sumber mana yang lebih dapat dipercaya: yang memiliki karakteristik sosial yang lebih mirip dengan mereka (manusia), atau yang memberikan informasi yang lebih baik (robot).
“Di usia 3 tahun, kita melihat mereka bolak-balik, jadi kita tidak melihat mereka secara dominan memilih manusia atau secara dominan memilih robot,” kata Dr. Goldman. “Pada usia 5 tahun, mereka berkata, ‘Hai, saya akan memilih informan yang akurat, meskipun itu bukan manusia.'” Jadi, terdapat lonjakan besar dalam pemahaman tentang cara orang dan benda bekerja antara usia 3 dan 5 tahun, yang mungkin menjadi penting semakin banyaknya penggunaan AI untuk anak-anak yang semakin muda.
Itu tidak berarti mereka bisa memahami seluruh AI, atau bahwa tidak ada kekhawatiran sama sekali ketika anak berusia 5 tahun. “Mereka tidak bisa menjelaskan kepada Anda apa itu model pembelajaran bahasa dan bagaimana model tersebut mengumpulkan informasi,” kata Dr. Goldman.Mereka tidak selalu memahami semua batasan dari itu juga. Terkadang mereka terlalu memperkirakan apa yang bisa dilakukan AI.
Lalu ada pertanyaan apakah tujuan dari mainan—yang biasanya adalah keterlibatan—sesuai dengan tujuan orang dewasa yang anak-anaknya menggunakan mainan tersebut. Misalnya, jika anak saya ingin berbicara dengan teman yang didukung AI, tetapi sedang merasa tidak nyaman, apakah AI akan terus-menerus membuatnya merasakan perasaan buruk itu hanya untuk memaksimalkan keterlibatannya dengan mainan tersebut? Kita telah melihat kasus ekstrem seperti ini pada anak-anak yang lebih tua, dengan atpaling sedikit tiga keluargamengklaim bahwa chatbot AI paling tidak bertanggung jawab atas pemicuan bunuh diri pada remaja mereka.
Kita harus benar-benar sadar bagaimana anak-anak mempersepsikan hal-hal ini,” kata Dr. Goldman. “Apakah mereka memahami bahwa mereka tidak benar-benar memiliki perasaan dan pikiran, dan bahwa mereka bisa hanya sekadar berinteraksi dengannya pada tingkat itu? Ini adalah pertanyaan yang sangat rumit.
Itu bukan berarti keluarga harus melarang mainan AI sama sekali, ketika mereka mulai bekerja lebih baik. “Kami tidak ingin menakuti orang dari teknologi, karena teknologi sudah ada dan saya tidak pikir teknologi akan pergi, apakah kita menginginkannya atau tidak,” kata Dr. Goldman. “Anak-anak tumbuh di lingkungan yang kami sebut penuh teknologi.”
Yang kami inginkan dari orang tua adalah terlibat dalam percakapan dengan pendidik dan orang-orang yang merancang mainan ini untuk menyampaikan pendapat dan menyampaikan kekhawatiran mereka,” katanya. “Ada kekhawatiran tentang privasi, tentang pengumpulan data, seperti suara anak. Atau kekhawatiran tentang apakah AI memberikan informasi yang tidak akurat atau salah, atau tentang kebingungan emosional atau ketergantungan berlebihan terhadap teknologi. Hal-hal ini sangat penting, dan para peneliti serta menurut saya banyak orang yang merancang mainan ini juga khawatir tentang hal-hal tersebut.
