Baca berita tanpa iklan. Gabung Kompas.com+
Dr. Eng. Alfian Akbar Gozali
Dosen & Manajer Pengembangan Produk TI Telkom University

Dosen Telkom University, Penulis Buku Kecerdasan Generatif Artifisial

kolom

Perhatian adalah Semua yang Kamu (AI) Butuhkan!

Kompas.com - 20/07/2023, 06:00 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

"Perhatian adalah semua yang kamu butuhkan!"

KALIMAT di atas sama sekali bukan judul buku apalagi film dengan genre keluarga atau psikologi.

Percaya atau tidak, kalimat ini adalah judul artikel ilmiah. Dan siapa sangka, artikel yang dimaksud adalah salah satu tonggak penting bagi perkembangan kecerdasan artifisial atau artificial intelligence (AI).

'Perhatian', suatu konsep yang tampaknya sederhana, ternyata memiliki peran penting dalam perkembangan AI.

"Attention is All You Need" adalah artikel ilmiah yang ditulis oleh Vaswani dan rekan-rekannya pada 2017. Mereka menunjukkan pentingnya 'perhatian' dalam pembelajaran mesin dan pemrosesan bahasa alami.

'Perhatian' dalam konteks ini berarti kemampuan AI untuk memfokuskan diri pada data penting dan mengekstraknya dari kumpulan data yang lebih besar.

Para peneliti Google Brain ini menciptakan model "deep learning" yang dikenal sebagai "Transformer", yang mengutamakan mekanisme 'perhatian'.

Model Transformer adalah model arsitektur jaringan yang revolusioner namun sederhana. Berbeda dari model sebelumnya, Transformer sepenuhnya berdasarkan mekanisme perhatian.

Tanpa pengulangan (recursion) atau konvolusi (convolution) yang biasanya menjadi bagian penting dalam model-model sebelumnya.

Mekanisme 'perhatian' memungkinkan model Transformer untuk memfokuskan diri pada bagian-bagian spesifik dari data saat melakukan prediksi atau memproses informasi.

Sebagai contoh, bayangkan AI yang diberi tugas untuk mengenali gambar kucing. Alih-alih memproses seluruh gambar, mekanisme 'perhatian' memungkinkan AI untuk fokus pada elemen-elemen spesifik dari kucing, seperti bentuk telinga, mata, atau ekor.

Dengan pendekatan ini, AI dapat bekerja dengan lebih akurat dan efisien. AI hanya memproses bagian yang penting dari data, yang menghasilkan suatu yang lebih baik.

Begitu juga dalam berbagai aplikasi lainnya, seperti penerjemahan otomatis, pengenalan suara, pengenalan gambar, atau analisis data medis.

Mekanisme 'perhatian' ini mengoptimalkan kinerja AI dan membuka jalan untuk peningkatan yang signifikan dalam teknologi ini.

Mekanisme 'perhatian' dalam model Transformer terbukti meningkatkan performa AI secara signifikan.

Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com