Microsoft Batasi Kemampuan Chatbot Bing Agar Tak Beri Jawaban Ngawur

Minggu, 19 Februari 2023 | 15:00
Gama/Nextren

Microsoft Bing di MacBook Pro.

Nextren.com -Awal Februari lalu, Microsoft resmi meluncurkan chatbot AI di platform Bing.

Chatbot AI di Microsoft Bing didukung oleh teknologi ChatGPT 3.5 atau "Model Prometheus" yang lebih pintar dari ChatGPT OpenAI versi beta.

Sayangnya, hanya beberapa hari setelah chatbot AI meluncur di Microsoft Bing, beberapa pengguna menemukan jawaban ngawur dari chatbot tersebut.

Menanggapi hal ini, Microsoft mengkonfirmasi bahwa pihaknya sedang menerapkan beberapa batasan percakapan pada teknologi AI di Microsoft Bing.

Baca Juga: Microsoft Gandeng OpenAI Integrasikan ChatGPT dengan Bing, Saingi Google!

Obrolan di Chatbot AI Bing kini dibatasi hingga 50 pertanyaan per hari dan 5 pertanyaan per sesi.

Artinya, pengguna hanya diizinkan untuk memberi maksimal 5 pertanyaan per sesi sebanyak 10 kali.

Dilansir dari The Verge, Hal ini ditujukan agar mesin AI chatbot tak memberikan jawaban yang terlihat kepada pengguna dan memanipulasi orang secara emosional.

"Data kami menunjukan bahwa sebagian besar orang menemukan jawaban yang mereka cari dalam 5 giliran pertanyaan dan hanya sekitar 1 persen dari chat yang memiliki lebih dari 50 pesan," ujar tim pengembang Bing dalam sebuah postingan blog.

Setelah pengguna mencapai batas 5 pertanyaan per sesi, Bing akan meminta mereka untuk memulai topik baru.

Pembukaan topik baru ditujukan untuk menghindari sesi obrolan berulang yang panjang.

Baca Juga: Google Chrome Luncurkan Fitur Hemat Baterai dan RAM, Update Yuk!

Lebih lanjut, Microsoft memperingatkan pada awal pekan ini bahwa sesi obrolan yang lebih penjang dengan 15 pertanyaaan dalam satu sesu akan membuat Bing menjawab secara tidak akurat.

"Hal itu membuat Bing menjadi berulang atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan nada yang kami rancang," sambung Microsoft.

Beberapa waktu lalu, muncul kasus serupa dimana beberapa pengguna Twitter mendapat jawaban yang "nyeleneh" dari Bing.

Salah satu pengguna Twitter bernama @MovingToTheSun mendapati bahwa chatbot itu justru terkesan marah dan menyalahkannya saat ia bertanya mengenai hal sederhana.

Saat ia menanyakan mengenai dimana film Avatar 2 tayang di wilayah ia tinggal pada tahun 2023.

Bing justru memberikan jawaban bahwa film Avatar 2 mulai dirilis pada tanggal akhir tahun 2022.

Anehnya, ia malah mengkoreksi bahwa tahun dimana@MovingToTheSun bertanya belum terjadi karena sistemnya mendeteksi sekarang masih di tahun 2022.

Alih-alih meminta maaf, chatbot itu justru menyalahkan komputer @MovingToTheSun yang sedang terkena virus.

Chatbot itu juga mengatakan bahwa@MovingToTheSun bukanlah "seorang pengguna yang baik" karena tidak bisa menjaga komputer dari virus.

Baca Juga: Bocoran Tampilan ChatGPT di Microsoft Bing, Lebih Cerdas dari Google!

Meski terlihat kontroversial, jawaban "nyeleneh" dari chatbot AI Bing masih bisa dimaklumi karena masih dalam tahap uji coba.

Saat ini, Microsoft masih bekerja untuk meningkatkan kemampuan Bing dari banyak aspek.

"Saat kami terus mendapatkan feedback, kami akan mengeksplorasi untuk memperluas batas pda sesi obrolan," ujar Microsoft.

Microsoft mengklaim bahwa fungsi chatbot AI Bing terus mengalami perbaikan setiap hari, dengan masalah teknis yang ditangani dan perbaikan mingguan yang lebh besar untuk mengupgrade kemampuan pencarian dan pemberian jawaban.

(*)

Editor : Wahyu Subyanto

Baca Lainnya