NVIDIA Coba Jalankan Kecerdasan Buatan Hanya Dengan Sedikit Data

Selasa, 08 Desember 2020 | 13:07
digitaltrends.com

Jensen Huang selaku CEO NVIDIA umumkan dukungan untuk gunakan G-Sync di monitor berbasis FreeSync.

Nextren.com - NVIDIA merupakan perusahaan teknologi yang terkenal dengan produk kartu grafis mereka di beberapa laptop populer.

Perusahaan ini sedang mengembangkan pendekatan baru untuk melatih jaringan permusuhan generatif (GAN).

Jaringan ini berada pada teknologi kecerdasan buatan yang dikembangkan NVIDIA dengan tujuan untuk menyelesaikan tugas yang lebih besar.

GAN memiliki dua jaringan saraf yang bersaing yaitu generator dan diskriminator.

Baca Juga: Nvidia Maxine, Aplikasi Video Rapat Berteknologi AI Ini Bisa Selesaikan Masalah Rapat Online

Di mana di dalam tersebut terdapat tujuan algoritme yang membuat gambar baru dan jaringan akan memeriksa ribuan gambar sampel.

Data tersebut akan digunakan NVIDIA untuk melatih jaringan lainnya dengan tujuan agar hasil dapat dipercaya secara konsisten.

GAN tradisional membutuhkan suatu tempat dalam kisaran 50 ribu hingga 100 ribu gambar pelatihan.

Namun, NVIDIA merencanakan teknologi kecerdasan buatannya dengan sedikit data.

Padahal GAN jika dimasukan dengan data yang sedikit, mereka akan cenderung mengalami masalah overfitting.

Dalam masalah ini, diskriminator tidak memiliki cukup basis untuk melatih generator secara efektif.

Melansir Engadget, di kejadian sebelumnya, salah satu cara peneliti AI mencoba mengatasi masalah ini adalah dengan menggunakan pendekatan yang disebut augmentasi data.

Menggunakan algoritme gambar sebagai contoh lagi, jika tidak ada banyak materi untuk dikerjakan.

Baca Juga: Huawei Klarifikasi Soal 5G di Indonesia, Kerja Sama Untuk Kompetensi Talenta Digital

Mereka akan mencoba mengatasi masalah itu dengan membuat salinan terdistorsi dari apa yang tersedia.

Mendistorsi, dalam hal ini artinya dapat memotong gambar, memutarnya, atau membaliknya.

Idenya di sini adalah bahwa jaringan tidak pernah melihat gambar yang sama persis secara dua kali.

Cara yang dari masa lalu tersebut yang akan digunakan NVIDIA bernama pendekatan augmentasi diskriminator adaptif (ADA).

Masalah dengan pendekatan tersebut akan mengarah pada situasi di mana GAN akan belajar meniru distorsi, alih-alih menciptakan sesuatu yang baru.

ADA baru dari NVIDIA ini masih menggunakan augmentasi data yang melakukannya secara adaptif.

Sistem akan melakukannya secara selektif dan cukup sehingga GAN menghindari overfitting.

Hasilnya, pendekatan NVIDIA dalam melatih AI untuk menulis game petualangan berbasis teks jadi mudah karena ada begitu banyak materi yang dapat digunakan algoritme.

Baca Juga: IBM Mengaku Tidak Mau Lagi Kembangkan Teknologi Pengenalan Wajah

Hal yang sama tidak berlaku untuk banyak tugas lain yang dapat digunakan peneliti untuk meminta bantuan GAN.

Misalnya, melatih algoritme untuk menemukan kelainan otak neurologis yang langka sulit dilakukan karena kelangkaannya.

Namun, GAN yang dilatih dengan pendekatan ADA NVIDIA dapat mengatasi masalah tersebut.

Dengan gambaran, seorang dokter dan peneliti dapat membagikan temuan mereka dengan lebih mudah karena mereka bekerja dari dasar gambar yang dibuat oleh AI, bukan pasien di dunia nyata.

Saat ini NVIDIA belum menjelasan lebih lanjut tentang pendekatan terbarunya agar bisa gunakan kecerdasan buatan dengan data minimalis.

Di mulai dari 6 Desember, NVIDIA akan membagikan lebih banyak informasi tentang pendekatan ADA barunya pada konferensi NeurIPS.

(*)

Tag

Editor : Wahyu Subyanto

Sumber Engadget