Kompas.com - 19/03/2022, 10:30 WIB

KOMPAS.com - Mesin pencari (search engine) adalah sebuah program piranti lunak (software) yang dirancang untuk melakukan pencarian terhadap beragam jenis informasi berdasarkan pertanyaan (query) yang dimasukkan pengguna.

Mesin pencari akan memberikan daftar hasil pencarian yang dinilai paling cocok dengan pertanyaan pengguna yang tersimpan pada direktori layanan internet.

Hasil pencarian yang dapat ditampilkan search engine cukup beragam, mulai dari teks, video, artikel berita, serta gambar.

Baca juga: Google Modifikasi Search Engine untuk Akali Trump?

Sejatinya ada banyak jenis search engine yang beredar di internet. Beberapa di antaranya adalah Bing, Yandex, Google, DuckDuckGo, Yahoo, dan masih banyak lagi. Namun di antara deretan nama-nama tersebut, Google menjadi salah satu mesin pencarian yang cukup populer digunakan.

Berdasarkan karakteristik yang dimiliki, search engine dapat memproses hasil pencarian dalam jumlah yang banyak setiap harinya. Lantas, bagaimana cara kerja mesin pencarian atau search engine dalam menentukan hasil pencarian?

Dirangkum KompasTekno dari Deep Crawl, cara kerja search engine secara umum adalah dengan merayapi (crawling) ratusan miliar halaman halaman web menggunakan sistem yang disebut perayap situs (web crawling) milik perusahaan penyedia layanan mesin pencarian.

Baca juga: Pembuat TikTok Luncurkan Layanan Mesin Pencari Pesaing Baidu

Web crawling ini biasa disebut "search engine bots" atau "laba-laba" mesin pencari. "Laba-laba itu akan menelusuri web dengan cara mengunduh halaman web melalui tautan yang sudah tersedia maupun menemukan yang baru.

Ada tiga proses kunci untuk menetukan hasil pencarian di search engine, yakni crawling, indexing, dan ranking. Berikut penjelasan crawling, indexing, dan ranking di mesin pencarian, sebagaimana KompasTekno himpun dari SEO Tester Online.

Pengertian crawling di mesin pencarian 

Pada proses crawling, search engine akan menjelajahi internet untuk mencari informasi. Selama tahap ini berlangsung, search engine akan mengirimkan sekelompok robot "laba-laba" untuk menelusuri setiap kode atau konten yang ada di dalam web.

Robot "laba-laba" ini menjalankan sebuah algoritma khusus untuk menentukan situs web yang ingin dikunjungi untuk mencari konten. Konten yang ditemukan cukup bervariasi dan bisa berupa format halaman web, gambar, video, serta PDF.

Baca juga: Mesin Pencari Google Bakal Makin Pintar dalam Memahami Maksud Pengguna

Halaman Selanjutnya
Halaman:


Video Pilihan

Sumber Deep Crawl
Rekomendasi untuk anda
26th

Tulis komentarmu dengan tagar #JernihBerkomentar dan menangkan e-voucher untuk 90 pemenang!

Syarat & Ketentuan
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE
Laporkan Komentar
Terima kasih. Kami sudah menerima laporan Anda. Kami akan menghapus komentar yang bertentangan dengan Panduan Komunitas dan UU ITE.
komentar di artikel lainnya
Close Ads
Lengkapi Profil
Lengkapi Profil

Segera lengkapi data dirimu untuk ikutan program #JernihBerkomentar.