GAMEFINITY.ID Kutai Kartanegara – Update terbaru AI image generator, Stable Diffusion, dilaporkan akan mempersulit pembuatan konten “nakal”, serta penggunaan art style seniman tertentu secara ilegal. Dan tampaknya, para pengguna tidak menyukai hal ini.
Stability AI, perusahaan yang mendanai dan menyebarluaskan Stable Diffusion, telah mengumumkan update terbaru untuk software generator gambar AI mereka. Dalam update kali ini, perusahaan telah merekayasa ulang komponen utama model dan meningkatkan fitur tertentu seperti upscaling (kemampuan untuk meningkatkan resolusi gambar) dan in-painting (pengeditan sadar konteks).
Selain kedua hal tersebut, perubahan terbaru juga dilaporkan akan mempersulit Stable Diffusion untuk menghasilkan jenis gambar tertentu yang menarik kontroversi dan kritik. Termasuk diantaranya adalah gambar-gambar telanjang dan pornografi, gambar fotorealistik selebriti, serta gambar yang meniru karya seni milik seniman tertentu.
Baca juga: Sony dan Honda Berkolaborasi Pasang PS5 Mobil Listrik Baru
Update Baru Untuk Membatasi Output Konten Tertentu
Stable Diffusion versi terbaru memang memperkenalkan sejumlah fitur baru. Kunci dari update ini adalah encoder teks baru yang disebut sebagai OpenCLIP, yang menurut Stability AI “sangat meningkatkan kualitas gambar yang dihasilkan, jika dibandingkan dengan rilis V1 sebelumnya.” Ini juga termasuk filter NSFW baru dari LAION, yang dirancang untuk menghapus konten dewasa.
Dan meski terdengar positif, banyak dari pengguna yang merasa tidak senang dengan update terbaru ini. Dimana mereka mengeluhkan software versi baru yang tidak lagi dapat menghasilkan gambar dengan gaya artis tertentu, hingga menghasilkan karya seni NSFW.
Emad Mostaque selaku Pendiri Stability AI, sebenarnya telah mengkonfirmasi adanya “nerf” pada kemampuan AI versi terbaru. Namun dirinya mengklaim bahwa “Tidak ada pemfilteran artis secara khusus di sini (versi terbaru),” melainkan hanya pembatasan kemampuan AI, dalam menyalin art style saat mengkodekan dan mengambil data. Dan untuk penghapusan data pelatihan, perusahaan hanya melakukannya pada data gambar telanjang dan pornografi.
Dalam server Discord resmi, Mostaque bahkan sempat mencatat kasus penggunaan terakhir yang menjadi alasan untuk memfilter konten NSFW, yaitu output gambar pornografi anak.
“(output gambar) Tidak bisa (tidak boleh) memiliki anak & nsfw dalam model terbuka,” kata Mostaque (karena kedua jenis gambar tersebut dapat digabungkan untuk membuat materi pelecehan seksual terhadap anak).
“Jadi singkirkan anak-anak atau singkirkan nsfw.” Imbuhnya.
Yang telah dihapus dari data pelatihan Stable Diffusion adalah gambar telanjang dan pornografi. Karena Generator gambar AI telah sering digunakan untuk menghasilkan output gambar NSFW, termasuk gambar bergaya foto realistik dan anime.
Bahkan, tak jarang pula AI Generator disalahgunakan oleh pengguna untuk menghasilkan citra NSFW yang menyerupai individu tertentu (dikenal sebagai pornografi non-konsensual), atau bahkan gambar pelecehan anak dibawah umur.
Suka dengan artikel ini? Jangan lupa untuk membaca artikel menarik lainnya hanya di Gamefinity.id