Google mengungkapkan cara melindungi pengguna dari kecerdasan buatan yang sangat palsu – Fintechnesia.com

FinTechnesia.com | Kecerdasan buatan (AI) akan menjadi perubahan teknologi terbesar dalam hidup kita. AI akan menciptakan peluang dan mengubah setiap lapisan masyarakat.

Pemerintah Indonesia ingin memanfaatkan teknologi ini untuk memberikan manfaat kepada masyarakat melalui upaya menjembatani kesenjangan bahasa. Selain itu, peningkatan kualitas pelayanan masyarakat dan kesehatan serta pemberdayaan individu melalui pengembangan keterampilan dan masih banyak lagi.

“Seiring kami terus mengintegrasikan teknologi AI ke lebih banyak produk dan layanan Google, dan yang baru saja kami luncurkan, yaitu AI generatif, kami menyadari bahwa kami harus berani dan bertanggung jawab bersama,” tulis Google pada Rabu (17/1).

Seperti halnya teknologi transformatif lainnya, akan ada tantangan yang harus diatasi. Untuk mengembangkan AI secara bertanggung jawab, kita harus mampu menyeimbangkan upaya untuk memaksimalkan dampak positif AI dan mengatasi potensi risiko yang timbul.

Meski terlihat rumit, kita perlu bekerja sama untuk mencapai kesuksesan jangka panjang. Hanya dengan memprioritaskan tanggung jawab sejak awal kita dapat benar-benar memanfaatkan kekuatan transformatif AI tanpa membahayakan kesejahteraan masyarakat.

Baca juga: Dengan penerapan kecerdasan buatan dalam operasional logistik, Blibli akan menghemat hingga 11%

Salah satu contoh bagaimana Google merespons hal ini adalah dengan mengantisipasi dan menguji berbagai risiko keselamatan dan keamanan/termasuk munculnya bentuk-bentuk baru konten audio atau video buatan AI yang bersifat sintetik dan fotorealistik, yang juga dikenal sebagai “media sintetik”.

Meskipun teknologi ini memiliki banyak manfaat – seperti membuka peluang baru bagi penyandang disabilitas bicara dan disleksia, atau memberikan sumber inspirasi kreatif baru bagi seniman dan studio film di seluruh dunia – namun hal ini menimbulkan kekhawatiran.

Misalnya, digunakan dalam kampanye disinformasi dan tujuan jahat lainnya, melalui “sangat salah“. Potensi penyalahgunaan teknologi ini untuk menyebarkan narasi palsu dan konten palsu bisa menimbulkan banyak dampak negatif.

“Kami mencoba membantu mengatasi potensi risiko ini dengan berbagai cara. Salah satu upaya penting yang kami lakukan adalah membantu pengguna mengidentifikasi konten AI. “Selain memberikan pengetahuan kepada masyarakat untuk mengetahui saat mereka berinteraksi dengan media yang dihasilkan AI,” jelas Google lagi.

Setiap gambar yang dihasilkan melalui produk Google ditandai dengan metadata dan tanda air SynthID, yang saat ini tersedia untuk sejumlah kecil pelanggan Vertex AI yang menggunakan Imagen. Ini adalah salah satu model mengubah teks menjadi gambar Yang terbaru kami menggunakan input teks untuk membuat gambar fotorealistik.

Dalam beberapa bulan, Google akan meluncurkan fitur di YouTube untuk menghapus konten buatan AI. Atau konten sintetis atau konten yang dibuat dengan cara lain yang meniru identitas seseorang, termasuk wajah atau suaranya, melalui proses permintaan privasi kami.

Tidak ada cara yang benar-benar efektif untuk menghilangkan penyebaran “daduh palsu” dan disinformasi yang dihasilkan oleh AI. Hal ini memerlukan upaya kolaboratif yang memerlukan komunikasi terbuka, penilaian risiko yang ketat, dan strategi mitigasi yang proaktif.

Misalnya, di YouTube, Gogole menggabungkan proses peninjauan manual oleh manusia dan teknologi pembelajaran mesin untuk menegakkan Pedoman Komunitas Google.

Di Google, pengklasifikasi kecerdasan buatan membantu mendeteksi konten yang berpotensi melanggar dalam skala besar. Sementara pengontrol mencoba menentukan apakah konten tersebut benar-benar melanggar batasan kebijakan. Kecerdasan buatan membantu kami terus meningkatkan kecepatan dan keakuratan sistem moderasi konten Google. (Juni)

Quoted From Many Source

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *