Sebaliknya, LLaMA2 menunjukkan kinerja yang lebih baik dalam mendeteksi kesalahan sosial ini, meskipun hasil ini kemudian ditemukan mungkin disebabkan oleh bias dalam menganggap ketidaktahuan, bukan karena kemampuan sebenarnya untuk memahami konteks sosial.
Apa Artinya untuk Masa Depan AI?
Temuan ini mengungkapkan bahwa meskipun AI dapat meniru beberapa aspek dari pemikiran manusia, mereka masih memiliki batasan, terutama dalam situasi yang memerlukan komitmen pada interpretasi tertentu dari keadaan mental orang lain. GPT-4, misalnya, menunjukkan kecenderungan untuk tidak mengambil keputusan tegas dalam situasi di mana informasi yang diberikan tidak lengkap.
Para peneliti menyebut fenomena ini sebagai “hiperkonservatisme,” di mana AI cenderung berhati-hati dan menghindari membuat kesimpulan yang pasti.
Lalu, apa dampaknya bagi kita sebagai pengguna? Dalam interaksi sehari-hari, misalnya saat menggunakan chatbot atau asisten virtual, kita mungkin merasa bahwa AI tersebut mampu memahami dan merespons kebutuhan kita dengan cara yang sangat manusiawi.
Namun, di balik layar, AI ini mungkin menggunakan pendekatan yang berbeda dalam membuat keputusan dibandingkan manusia, terutama ketika berhadapan dengan ketidakpastian.
Bagaimana AI Mengubah Cara Kita Berinteraksi?
Penelitian ini juga menyoroti pentingnya pengujian yang sistematis untuk memastikan bahwa AI benar-benar mampu meniru perilaku manusia secara mendalam, bukan hanya di permukaan.
Ini berarti bahwa untuk menciptakan AI yang benar-benar “cerdas secara sosial,” para pengembang perlu lebih memahami perbedaan mendasar antara cara AI dan manusia memproses informasi sosial.
Selain itu, penelitian ini mengajak kita untuk berpikir ulang tentang bagaimana kita ingin AI berkembang di masa depan. Apakah kita ingin AI yang lebih tegas dalam mengambil keputusan, atau justru AI yang lebih berhati-hati dalam menghadapi ketidakpastian?