Baca berita tanpa iklan. Gabung Kompas.com+
Salin Artikel

Nvidia Rilis Chatbot AI "Chat with RTX", Bekerja Lokal di PC

Aplikasi ini sejatinya merupakan asisten pribadi digital yang bekerja secara lokal di komputer/PC, bukan di cloud.

Beberapa kegunaan Chat with RTX antara lain pengguna bisa mengunggah dokumen di PC dengan format file .txt, .pdf, .doc/.docx, dan .xml, kemudian meminta Chat with RTX untuk merangkumnya.

Sebagai contoh, pengguna dapat meng-upload file meeting kemudian menanyakan pertanyaan spesifik, seperti "Apa nama tempat yang direkomendasikan rekan kerja saya?".

Nantinya, chatbot akan mencari jawaban pertanyaan itu langsung dari dokumen yang diberikan, sehingga pengguna tidak usah mencari jawaban tersebut secara manual.

Selain merangkum file, Chat with RTX juga bisa merangkum video YouTube yang diberikan dalam bentuk tautan (link).

Misalnya, pengguna bisa menanyakan "Apa saja GPU yang diumumkan Nvidia di Consumer Electronics Show (CES) 2024?", sehingga tidak usah menonton video pengumuman resminya yang berdurasi hingga 30 menit.

Melihat kegunaannya, bisa dibilang bahwa Chat with RTX memiliki kemiripan dengan chatbot Gemini milik Google atau ChatGPT bikinan OpenAI.

Pakai Nvidia RTX 30 atau 40 series

Adapun Chat with RTX menggunakan retrieval augmented generation (RAG) dan software Nvidia TensorRT-LLM, yang didukung oleh unit pengolah grafis (GPU) Nvidia RTX 30 atau 40 series dan diakselerasi oleh inti Tensor built-in.

Chat with RTX mengandalkan GPU dengan VRAM 8 GB, RAM 16 GB, sistem operasi (OS) Windows 10 atau 11, serta driver GPU Nvidia teranyar (versi 535.11 atau lebih baru). Pengguna juga memerlukan media penyimpanan seluas 35 GB.

File lokal di komputer pengguna nantinya dihubungkan (upload) ke model bahasa besar (large language model/LLM) open-source seperti Mistral atau Llama 2, yang disebut bisa memberikan jawaban yang cepat dan relevan secara kontekstual.

Nah, tugas retrieval augmented generation adalah meningkatkan akurasi dan reliabilitas model AI generatif, sedangkan Nvidia TensorRT-LLM mengoptimalkan kinerja inferensi model bahasa besar terbaru dalam platform Nvidia AI.

Sebagaimana dikutip KompasTekno dari blog resmi Nvidia, Rabu (14/2/2024), Chat with RTX dijalankan langsung di PC dan workstation Nvidia RTX, sehingga data pengguna hanya akan disimpan di perangkat saja.

Chat with RTX tidak mengandalkan LLM berbasis cloud, sehingga pengguna bisa memproses data sensitif di PC tanpa harus membagikannya ke pihak ketiga. Pengguna juga tidak perlu koneksi internet saat menggunakan Chat with RTX.

Proses instalasinya membutuhkan kesabaran, dan aplikasinya disebut boros daya. Menurut hands-on dari media teknologi The Verge, atribusi sumber Chat with RTX tidak selalu akurat, dan aplikasi akan tertutup (crash) jika disuruh mengindeks sebanyak 25.000 dokumen.

Selain itu, Chat with RTX tidak mengingat konteks pembicaraan, sehingga pengguna tidak bisa menanyakan pertanyaan lanjutan dari pertanyaan yang sudah diajukan.

Di luar itu, The Verge mengatakan bahwa demo teknologi ini baik, dan menunjukkan potensi chatbot AI yang berjalan secara lokal di komputer pengguna. Pengguna tak usah berlangganan Microsoft Copilot Pro atau ChatGPT Plus jika ingin menganalisis file pribadi.

https://tekno.kompas.com/read/2024/02/14/19000057/nvidia-rilis-chatbot-ai-chat-with-rtx-bekerja-lokal-di-pc

Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke