Follow Us

Microsoft Batasi Kemampuan Chatbot Bing Agar Tak Beri Jawaban Ngawur

Gama Prabowo - Minggu, 19 Februari 2023 | 15:00
Microsoft Bing di MacBook Pro.
Gama/Nextren

Microsoft Bing di MacBook Pro.

Lebih lanjut, Microsoft memperingatkan pada awal pekan ini bahwa sesi obrolan yang lebih penjang dengan 15 pertanyaaan dalam satu sesu akan membuat Bing menjawab secara tidak akurat.

"Hal itu membuat Bing menjadi berulang atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan nada yang kami rancang," sambung Microsoft.

Beberapa waktu lalu, muncul kasus serupa dimana beberapa pengguna Twitter mendapat jawaban yang "nyeleneh" dari Bing.

Salah satu pengguna Twitter bernama @MovingToTheSun mendapati bahwa chatbot itu justru terkesan marah dan menyalahkannya saat ia bertanya mengenai hal sederhana.

Saat ia menanyakan mengenai dimana film Avatar 2 tayang di wilayah ia tinggal pada tahun 2023.

Bing justru memberikan jawaban bahwa film Avatar 2 mulai dirilis pada tanggal akhir tahun 2022.

Anehnya, ia malah mengkoreksi bahwa tahun dimana @MovingToTheSun bertanya belum terjadi karena sistemnya mendeteksi sekarang masih di tahun 2022.

Alih-alih meminta maaf, chatbot itu justru menyalahkan komputer @MovingToTheSun yang sedang terkena virus.

Chatbot itu juga mengatakan bahwa @MovingToTheSun bukanlah "seorang pengguna yang baik" karena tidak bisa menjaga komputer dari virus.

Baca Juga: Bocoran Tampilan ChatGPT di Microsoft Bing, Lebih Cerdas dari Google!

Meski terlihat kontroversial, jawaban "nyeleneh" dari chatbot AI Bing masih bisa dimaklumi karena masih dalam tahap uji coba.

Editor : Nextren

Baca Lainnya

PROMOTED CONTENT

Latest