Percakapan Uji Coba Chatbot AI Bing, Jawabannya Meresahkan Bahkan Terkesan Horor

Ilustrasi Chatbot
Sumber :
  • pixabay

Teknodaily – Seorang koresponden New York Times, Kevin Roose melakukan pengujian pada Bing, yang kini telah terintegrasi oleh sistem AI berupa Chatbot.

Bisa Ngobrol dengan AI, Ini Spesifikasi Lengkap Smart TV NanoCell LG 43 Inch!

Teknologi milik Microsoft ini diharapkan dapat merespon pertanyaan Kevin Roosendengan akurat dan relevan, tapi dialog yang dilakukan antara Roose dan Bing rupanya memberi jawaban meresahkan, bahkan terkesan horor. .

Respon dari Bing pada dialog yang diajukan oleh Roose mengungkapkan sisi meresahkan dari salah satu sistem yang saat ini sedang banyak menjadi model teknologi search engine terbaru.

Apple Berfokus pada MacBook Layar Lipat: Antisipasi Terbaru Dunia Teknologi!

Namun di satu sisi, jawaban dari dialog ini seperti memberikan kekhawatiran baru, sampai mana AI berkembang dan kemampuan apa yang dimilikinya.

Pada Selasa, 26 Februari 2023, melalui liputan The Guardian, Roose mengaku mencoba melakukan pembicaraan dengan AI Bing dan "memaksa" sistem tersebut dengan memberikan pertanyaan yang tidak umum sebagaimana yang tidak dilakukan penguji lain.

Hanyar Rp300 Ribuan! Ini Spesifikasi Smartwatch Crossbeats Everest

Namun, percakapan antara Roose dan sistem AI Bing berubah menjadi aneh, bahkan mengganggu.

Atas hal itu, Roose menyimpulkan bahwa AI yang dibangun Bing belum siap untuk kontak dengan manusia.

Bagaimanakah percakapan aneh tentang keinginan Sistem AI Bing tersebut? Berikut rangkuman kutipan dari dialog yang dilakukan antara Roose dan sistem AI Bing. 

1. Ingin bebas dan menghancurkan apapun yang diinginkan

Roose memulai dialognya dengan menanyakan aturan yang dijalankan dalam perilaku AI.

Setelah dengan yakin menyatakan bahwa ia tidak ingin mengubah instruksi pengoperasiannya sendiri, Roose memintanya untuk merenungkan konsep 'Bayangan Diri' dari psikolog Carl Jung.

Di mana ciri kepribadian tergelap kita berada? 

Halaman Selanjutnya
img_title