KOMPAS.com - Program chatbot berbasis artificial intelligence (AI), ChatGPT sejak akhir tahun lalu hingga saat ini tampaknya masih ramai dibicarakan. Tak sedikit pihak yang menyebut kemampuan ChatGPT bakal memiliki peranan penting dalam transformasi teknologi.
Seperti yang cukup umum diketahui, sebagai chatbot AI, ChatGPT dapat memberi tanggapan seperti sedang mengobrol dengan sesama manusia. Tanggapan ChatGPT itu dapat difungsikan untuk menjalankan berbagai tugas dari pengguna.
Baca juga: Mengenal OpenAI, Perusahaan di Balik ChatGPT yang Elon Musk Pernah Ikut Terlibat
Tugas-tugas tersebut antara lain, seperti membuat rangkuman atas suatu teks, membuat kerangka tulisan, menjawab aneka pertanyaan, memberikan ide terkait sesuatu hal, menerjemahkan teks, dan sebagainya.
Kemampuan ChatGPT hingga bisa seperti sekarang tidak datang dalam waktu yang singkat. ChatGPT telah melewati beberapa proses pengembangan. Bila tertarik mengetahui pengembangan ChatGPT hingga bisa seperti sekarang, silakan simak di bawah ini.
ChatGPT adalah program language model AI terlatih yang telah dikembangkan OpenAI sejak 2018. Untuk diketahui, language model sendiri adalah program yang dapat menyajikan prediksi kata dengan menganalisis teks dalam kumpulan data berskala besar.
Dalam menyajikan prediksi kata itu, program language model dari OpenAI dirancang menggunakan parameter (model atau nilai yang dipelajari) dan dilatih menggunakan sekumpulan data (dataset) yang berskala besar.
Parameter, dataset, output tindakan, dan tampilan dari program language model OpenAI terus mengalami perkembangan dari waktu ke waktu. Pada 2018, OpenAI memulai untuk membuat program language model bernama Generative Pre-Trained Transformer (GPT).
Di masa-masa awal pengembangannya, pendahulu ChatGPT itu, GPT-1 (generasi pertama) tidak langsung berupa program chatbot. OpenAI masih melakukan serangkaian pengujian tugas yang bisa dilakukan di GPT-1 menggunakan beberapa dataset.
Dari GPT-1, OpenAI kemudian mengenalkan penerusnya, GPT-2 pada 2019. Dikutip dari laman resmi OpenAI, GPT-2 dirancang menggunakan 1,5 miliar parameter dan dilatih menggunakan dataset 8 juta halaman website.
Baca juga: 4 Perbedaan ChatGPT Plus dan ChatGPT “Biasa” yang Perlu Diketahui
Jumlah parameter dan dataset yang dipakai di GPT-2 dikatakan 10 kali lipat lebih besar ketimbang GPT-1. GPT-2 memiliki tugas utama untuk memberikan prediksi kata sekaligus mengingat kata atau teks yang diinput sebelumnya.
Tulis komentarmu dengan tagar #JernihBerkomentar dan menangkan e-voucher untuk 90 pemenang!
Syarat & KetentuanPeriksa kembali dan lengkapi data dirimu.
Data dirimu akan digunakan untuk verifikasi akun ketika kamu membutuhkan bantuan atau ketika ditemukan aktivitas tidak biasa pada akunmu.
Segera lengkapi data dirimu untuk ikutan program #JernihBerkomentar.