Sunday, 18 November 2012

PENGERTIAN SEARCH ENGINE OPTIMIZATION

PENGERTIAN SEARCH ENGINE OPTIMIZATION 
Dalam dunia website/weblog sekarang ini, khususnya bagi para publisher dan blogger diharapkan pengetahuan ihwal Search Engine Optimization, website/weblog yang telah sahabat buat peran selanjutnya ialah mendaftarkan website/weblog sahabat ke mesin pencari Google atau yang lainnya. Sebelum mendaftarkan website/weblog yang telah dibuat; sekarang yang menjadi pertanyaan apa itu search engine optimization, cara kerja dan fungsi suatu search engine.

Pengertian Search Engine
Mesin pencari web atau yang lebih dikenal dengan istilah web search engine merupakan jadwal komputer yang dirancang untuk mencari isu yang tersedia didalam dunia maya. Berbeda halnya dengan direktori web (seperti dmoz.org) yang dikerjakan oleh insan untuk mengelompokkan suatu halaman isu berdasarkan kriteria yang ada, web search engine mengumpulkan isu yang tersedia secara otomatis. 

Cara Kerja Search Engine
Mesin pencari web bekerja dengan cara menyimpan hampir semua isu halaman web, yang diambil eksklusif dari www. Halaman-halaman ini diambil secara otomatis. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, ibarat Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun isu ihwal halaman web itu sendiri.

Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan menunjukkan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.

Mesin pencari lain yang menggunakan proses real-time, ibarat Orase, tidak menggunakan indeks dalam cara kerjanya. Informasi yang diharapkan mesin tersebut hanya dikumpulkan bila ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin ibarat Google, sistem real-time ini unggul dalam beberapa hal ibarat isu selalu mutakhir, (hampir) tak ada broken link, dan lebih sedikit sumberdaya sistem yang diharapkan (Google menggunakan hampir 100.000 komputer, Orase hanya satu.). Tetapi, ada juga kelemahannya yaitu pencarian lebih lama rampungnya. 

Komponen utama dalam Search Engine
Sebuah search engine memiliki beberapa komponen biar dapat menyediakan layanan utamanya sebagai sebuah mesin pencari informasi. Komponen tersebut antara lain : 

Web Crawler
Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua isu yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara menunjukkan sejumlah alamat website untuk dikunjungi serta menyimpan semua isu yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka beliau akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu.

Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berafiliasi dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya biar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, ibarat memvalidasi instruksi html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus ibarat mengumpulkan alamat e-mail.

Web crawler termasuk kedalam bab software agent atau yang lebih dikenal dengan istilah jadwal bot. Secara umum crawler memulai prosesnya dengan menunjukkan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya.

Dalam melaksanakan prosesnya, web crawler juga mempunyai beberapa problem yang harus bisa di atasinya. Permasalahan tersebut mencakup : 
Halaman mana yang harus dikunjungi terlebih dahulu. 
Aturan dalam proses mengunjungi kembali sebuah halaman. 
Performansi, mencakup banyaknya halaman yang harus dikunjungi. 
Aturan dalam setiap kunjungan biar server yang dikunjungi tidak kelebihan beban. 
Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster. 
Seberapa jauh kedalaman sebuah website yang akan dikunjungi. 
Hal yang tak kalah pentingnya ialah kemampuan web crawler untuk mengikuti
perkembangan teknologi web, dimana setiap kali teknologi gres muncul, web crawler harus dapat mengikuti keadaan biar dapat mengunjungi halaman web yang menggunakan teknologi gres tersebut.

Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap huruf yang ada untuk menemukan hyperlink tag html (<a>). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, bila tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru. 

Indexing system
Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.

Indexing system mengumpulkan, memilah dan menyimpan data untuk menunjukkan fasilitas dalam pengaksesan isu secara sempurna dan akurat. Proses pengolahan halaman web biar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer.

Tujuan dari penyimpanan data berupa indeks ialah untuk performansi dan kecepatan dalam menemukan isu yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melaksanakan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat suplemen mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada ketika pemrosesan pencarian dokumen yang dibutuhkan. 

Search system
Search system inilah yang berafiliasi eksklusif dengan pengguna, meyediakan hasil pencarian isu yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya. 

0 comments

Post a Comment