Minggu, 30 September 2012

Tugas Minggu 1

                                                                   Search Engine
Pendahuluan
Search engine!!ini adalah suatu program komputer untuk mencari informasi pada media internet. Seperti layaknya anjing pemburu yang ditugaskan untuk mencari hewan-hewan liar yang akan diburu oleh sipemburu. Program ini sangat berguna dan bermanfaat dalam mencari sebuah informasi didunia maya, coba anda bayang kan bila seandainya search engine tidak ada, maka kita akan dipersulit dalam mencari informasi dikarnakan kita harus mencari data dengan cara manual, bayangkan berapa lama waktu yang anda perlukan jika anda mencari data didunia maya denagn cara manual.
Pengertian Search Engine
Mesin pencari web atau yang lebih dikenal dengan istilah web search engine merupakan program komputer yang dirancang untuk mencari informasi yang tersedia didalam dunia maya. Berbeda halnya dengan direktori web (seperti dmoz.org) yang dikerjakan oleh manusia untuk mengelompokkan suatu halaman informasi berdasarkan kriteria yang ada, web search engine mengumpulkan informasi yang tersedia secara otomatis.
Cara Kerja Search Engine
Mesin pencari web bekerja dengan cara menyimpan hampir semua informasi halaman web, yang diambil langsung dari www. Halaman-halaman ini diambil secara otomatis. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data
tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.

Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.

Mesin pencari lain yang menggunakan proses real-time, seperti Orase, tidak menggunakan indeks dalam cara kerjanya. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal seperti informasi selalu mutakhir, (hampir) tak ada broken link, dan lebih sedikit sumberdaya sistem yang diperlukan (Google menggunakan hampir 100.000 komputer, Orase hanya satu.). Tetapi, ada juga kelemahannya yaitu pencarian lebih lama rampungnya.
Komponen utama dalam Search Engine
Sebuah search engine memiliki beberapa komponen agar dapat menyediakan layanan utamanya sebagai sebuah mesin pencari informasi. Komponen tersebut antara lain :

a.    Web Crawler
Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka dia akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu.

Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.

Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya.

Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :

o    Halaman mana yang harus dikunjungi terlebih dahulu.
o    Aturan dalam proses mengunjungi kembali sebuah halaman.
o    Performansi, mencakup banyaknya halaman yang harus dikunjungi.
o    Aturan dalam setiap kunjungan agar server yang dikunjungi tidak kelebihan beban.
o    Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster.
o    Seberapa jauh kedalaman sebuah website yang akan dikunjungi.
o    Hal yang tak kalah pentingnya adalah kemampuan web crawler untuk mengikuti
perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut.

Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (<a>). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru.

b.    Indexing system
Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.

Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer.

Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan.
c.    Search system
Search system inilah yang berhubungan langsung dengan pengguna, meyediakan hasil pencarian informasi yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.


Macam-Macam Search Engine
Google
(www.google.com)
Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.

* Kelebihan

1. Kecepatan dan kemudahan dalam mencari.
2. lebih canggih dengan fitur yang dimilikinya.
3. Tampilan yang sederhana.
4. Google merupakan satu-satunya mesin pencari yang memilki cach. Dengan adanya cache ini, si pencari dapat menghemat waktu pencarian, karena hasil pencarian yang akan ditampilkan.
5. Dapat mencari segala informasi seperti gambar, berita artikel, hiburan dll.

* Kekurangan

1. Dengan kelebihan yang dimilikinya, ternyata mesin pencari ini jadi bidikan para spamer untuk menampilkan iklan-iklan yang tidak diperlukan. Mereka memanfaatkan setiap celah yang ada pada sistem algoritma Google untuk memaksa iklan mereka tampil pada halaman terdepan. Maka, pencarian pun terasa tergangggu.

Yahoo!
(www.yahoo.com)


Salah satu portal terbesar di Internet, selain MSN., dan juga salah satu mesin pencari tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar. berikut ini kelebihan dan kekurangannya yang lebih jelas :

* Kelebihan:

1. carta surat menyurat modern untuk membuat orang menjadi lebih maju
2. salah satu web yang menyediakan layanan fasilitas gratis
3. salah satunyapun yang anda bilang, bila di refresh cepat
4. banyak fasilitas yang disediakan, seperti: Y!A Y!A Y! mail Y! 360 dan lain2
5. sudah ada di banyak negara

* Kekurangan:

1. Satu id yahoo hanya untuk yahoo, tak bisa untuk produk windows, seperti IM dan msn
2. Teralu mudah untuk membuat id, sehingga kadang-kadang disalah gunakan
3. Fitur Y!M msh sangat kalah jauh dengan IM keluaran windows
4. Skin untuk Y!M msh sangatlah simple, tak seperti IM yang ada cukup banyak


Alltheweb
(www.alltheweb.com)

Keunggulan Alltheweb adalah pencarian file pada FTP Server. Tidak seperti web, FTP adalah teknologi internet yang ditujukan untuk menyimpan dan mendistribusikan file, biasanya program, audio atau video. Web sebenarnya lebih ditujukan untuk teks. Sejauh ini, hanya AllTheWeb yang menyediakan jasa pencarian file.

* Kelebihan

1. Kemudahan dalam mencari.
2. Tampilan yang sederhana seperti Google.
3. Alltheweb langsung menyediakan fungsi untuk pencarian berita, musik, gambar, dan video.
4. Menu bantuan terlihat jelas, dan di dalamnya tersedia sejumlah opsi bantuan yang banyak, sehingga sekali lagi kemudahan tampak bagi si pengguna.

* Kekurangan

1. Pencarian yang lama dibandingkan dengan mesin pencari lainnya.
2. Halaman pencarian hanya dibatasi dengan sebuah garis sehingga membingungkan si pengguna.
3. Pada link-link yang tidak berguna terkadang masih terlihat dalam beberapa hari, sehingga terlihat kurang aktual. Hal ini menunjukan tidak cepatnya Allltheweb melakukan update.


MSN
(http://search.msn.com)

Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai Internet Explorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Searchenginewatch mencatat MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada pencarian image, atau news. Menyediakan pencarian peta, yellow pages, white pages, pencarian pekerjaan, rumah.

* Kelebihan

1. mampu mencari video, musik, gambar, dan beragam format file spesial.

* Kekurangan

1. pencarian. Dibutuhkan waktu yang lama sampai hasil ditampilkan di halaman MSN.
2. Pengguna juga sulit membedakan antara iklan dan bukan iklan pada halaman pencariannya. Penampilan iklan hanya dibedakan dari hasil asli melalui sebuah titik di depannya.


AskJeeves
(http://www.ask.com)

Situs mesin pencari yang satu ini mengunggulkan kemampuannya untuk memahami bahasa manusia. Pengguna bisa menggunakan kalimat lengkap, bukan kata kunci. Situs ini berguna untuk mengetahui jawaban dari pertanyaan(misal: when did world war II end?)


* Kelebihan

1. Keunggulan utamanya adalah ia akan mencari situs penyedia jawaban untuk pertanyaan anda.

AltaVista
(www.altavista.com)

Satu saat, AltaVista pernah menjadi mesin pencari terbesar. Saat ini, selain Alltheweb, Altavista juga menawarkan pencarian audio dan video. Keunggulan AltaVista adalah pilihan pencarian yang paling lengkap di antara semua mesin pencari.

* Kelebihan

1. keunggulan dalam hal pencarian halaman web, video, gambar, MP3, dan file audio lainnya. Dalam pencarian berita pun Altavista mampu mencari berita teraktual.
2. Altavista mampu menetapkan berapa umur maksimal yang akan ditampilkan.

* Kekurangan

1. Dalam hal pencarian data yang kurang bagus. Sering kali mesin pencari ini menampilkan hasil yang sama sekali tidak ada kaitannya dengan tema yang dicari.


Lycos
(http://www.lycos.com)

Salah satu mesin pencari tertua. Saat ini Lycos lebih dikenal sebagai portal, sehingga fungsi pencarinya tidak terlalu menonjol. Lycos, selain mendukung pencarian web, juga menyediakan pencarian file MP3, dan video pada http://multimedia.lycos.com.

* Kelebihan

1. Lycos mampu mencari data dengan cepat dan ini merupakan kelebihannya.
2. Dalam hal pencarian cepat.
3. Lycos menyediakan fungsi “Fun Search” yang lebih diperuntukkan bagi kalangan remaja. Ini sangat membantu bagi kalangan yang membutuhkan gosip dan lagu terbaru dari para selebritis pujaan.
4. Lycos juga menampilkan 50 pencarian terbesar di halaman depannya.

* Kekurangan

1. Untuk mencari berita-berita aktualnya, pengguna harus masuk ke bagian site map karena berita-berita tersebut tidak ditampilkan di halaman depan.
2. Sering tidak spesifik karena datanya kebanyakan masih mengambil data dari mesin pencari Alltheweb yang tergolong paling lamban dalam pencarian data
Browsing dan Searching
Ø      BROWSING
Browsing diartikan sebagai suatu aktivitas berselancar untuk menjelajahi informasi yang ada di internet, dengan kata lain menjelajah dunia maya atau internet untuk mencari sesuatu yg bermanfaat membaca berita secara online itu juga salah satu browsing. Atau dapat juga diartikan seni pencarian informasi melalui system operasi yang berbasis hypertext, misalnya membaca berita, mencari istilah dll. Secara spesifikasi Browsing itu adalah menjelajahi dunia maya dengan menggunakan alamat yang ingin kita cari, misalnya : yahoo.com.
Ø      SEARCHING
Searching berarti pencarian suatu situs yang belum kita ketahui secara pasti alamat yang dimiliki. Dalam melakukan searching biasanya kita gunakan search engine sebagai mesin pembantu dalam pencarian situs tersebut.
DAFTAR PUSTAKA
http://belajar-web-ku.blogspot.com/2008/08/pengertian-search-engine-optimization.html
http://tirta-ilmu.blogspot.com/2012/03/pengertian-search-engine.html
http://mesin-penelusur.blogspot.com/2010/01/pengertian-searh-engine.html
http://harivalcomputer.blogspot.com/2010/03/macam-macam-search-engine-dan.html
http://genisu8.wordpress.com/2011/12/16/macam-macam-search-engine-browsing-searching/
http://ardionline.blogspot.com/2008/01/sejarah-search-engine.html
http://id.wikipedia.org/wiki/Mesin_pencari_web
http://www.prowebpro.com/articles/search_engine.php
http://www.ihsanfirdaus.com/search-engine/
http://www.promosi-web.com/hot/news250902.php






Browsing dan Searching
Ø      BROWSING
Browsing diartikan sebagai suatu aktivitas berselancar untuk menjelajahi informasi yang ada di internet, dengan kata lain menjelajah dunia maya atau internet untuk mencari sesuatu yg bermanfaat membaca berita secara online itu juga salah satu browsing. Atau dapat juga diartikan seni pencarian informasi melalui system operasi yang berbasis hypertext, misalnya membaca berita, mencari istilah dll. Secara spesifikasi Browsing itu adalah menjelajahi dunia maya dengan menggunakan alamat yang ingin kita cari, misalnya : yahoo.com.
Ø      SEARCHING
Searching berarti pencarian suatu situs yang belum kita ketahui secara pasti alamat yang dimiliki. Dalam melakukan searching biasanya kita gunakan search engine sebagai mesin pembantu dalam pencarian situs tersebut.
Alat yang pertama kali digunakan untuk melakukan pencarian melalui internet disebut “Archie”. Diciptakan tahun 1990 oleh Alan Emtage, seorang siswa dari Universitas Mcgill di Montreal. Program tersebut mendownload daftar direktori dari semua file dan ditempatkan pada alamat FTP, menciptakan suatu filename database yang bisa dicari.

Jika program Archie meng-index file komputer, “Gopher” meng-index teks dokumen. Gopher diciptakan pada tahun 1991 oleh Mark Mccahill di Universitas Minnesota. Karena berbentuk file teks, hampir semua situs gopher menjadi website setelah terciptanya World Wide Web.

Program yang lainnya yaitu “Veronica” dan “Jughead”, yang berfungsi untuk mencari file yang disimpan di dalam sistem index Gopher. Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) menyediakan pencarian dengan menggunakan kata kunci di menu judul dalam seluruh daftar Gopher. Jughead ( Jonzy’s Universal Gopher Hierarchy Excavation And Display ) adalah suatu alat untuk memperoleh menu informasi dari beberapa jenis Gopher server.

Search engine pada web yang pertama adalah “Wandex”, suatu nowdefunct index yang dikumpulkan oleh World Wide Web Wanderer, suatu Web Crawler yang dikembangkan oleh Matthew Gray lulusan MIT tahun 1993. Pada tahun yang sama, sebuah search engine lainnya keluar yaitu Aliweb, yang saat ini masih ada. Search engine pertama kalinya yang “full text” atau search engine yang hampir semuanya tulisan adalah Web Crawler yang muncul pada tahun 1994. tidak seperti search engine sebelumnya, web crawler yang muncul pada tahun 1994. Tidak seperti search engine sebelumnya, web crawler mengijinkan para pemakai mencari informasi dengan menggunakan kata apa saja pada halaman web mana saja. Inilah yang menjadi standarisasi dari semua search engine yang ada sekarang ini.

Setelah itu, banyak search engine yang bermunculan dan saling berlomba untuk mendapatkan ketenaran. Diantaranya Excite, Infosee, Inktomi, Northern Light, dan AltaVista. Dalam beberapa hal, mereka bersaing dengan direktori terkenal seperti Yahoo!.

Sebelum web muncul, terdapat search engine untuk protokol atau pengguna lain, seperti Archie untuk situs anonymous FTP dan Veronica untuk protokol Gopher. Baru-baru ini muncul juga search engine online yang menggunakan XML atau RSS. Dengan ini search engine menjadi lebih efisien mengindex data pada website tanpa tuntutan yang rumit. Sehingga website hanya menyediakan suatu timbal balik XML dengan index-index search engine. Timbal-balik XML secara meningkat disediakan secara otomatis oleh weblogs atau blogs. Contoh search engine ini adalah feedster, seperti LjFind Search yang menyediakan jasa pencarian untuk Livejournal blogs.


Sejarah Search Engine
Diposting oleh Ardhi di 2:14 AM . Jan 8, 2008
kategori: sejarah search engine, seo
Alat yang pertama kali digunakan untuk melakukan pencarian melalui internet disebut “Archie”. Diciptakan tahun 1990 oleh Alan Emtage, seorang siswa dari Universitas Mcgill di Montreal. Program tersebut mendownload daftar direktori dari semua file dan ditempatkan pada alamat FTP, menciptakan suatu filename database yang bisa dicari.

Jika program Archie meng-index file komputer, “Gopher” meng-index teks dokumen. Gopher diciptakan pada tahun 1991 oleh Mark Mccahill di Universitas Minnesota. Karena berbentuk file teks, hampir semua situs gopher menjadi website setelah terciptanya World Wide Web.

Program yang lainnya yaitu “Veronica” dan “Jughead”, yang berfungsi untuk mencari file yang disimpan di dalam sistem index Gopher. Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) menyediakan pencarian dengan menggunakan kata kunci di menu judul dalam seluruh daftar Gopher. Jughead ( Jonzy’s Universal Gopher Hierarchy Excavation And Display ) adalah suatu alat untuk memperoleh menu informasi dari beberapa jenis Gopher server.

Search engine pada web yang pertama adalah “Wandex”, suatu nowdefunct index yang dikumpulkan oleh World Wide Web Wanderer, suatu Web Crawler yang dikembangkan oleh Matthew Gray lulusan MIT tahun 1993. Pada tahun yang sama, sebuah search engine lainnya keluar yaitu Aliweb, yang saat ini masih ada. Search engine pertama kalinya yang “full text” atau search engine yang hampir semuanya tulisan adalah Web Crawler yang muncul pada tahun 1994. tidak seperti search engine sebelumnya, web crawler yang muncul pada tahun 1994. Tidak seperti search engine sebelumnya, web crawler mengijinkan para pemakai mencari informasi dengan menggunakan kata apa saja pada halaman web mana saja. Inilah yang menjadi standarisasi dari semua search engine yang ada sekarang ini.

Setelah itu, banyak search engine yang bermunculan dan saling berlomba untuk mendapatkan ketenaran. Diantaranya Excite, Infosee, Inktomi, Northern Light, dan AltaVista. Dalam beberapa hal, mereka bersaing dengan direktori terkenal seperti Yahoo!.

Sebelum web muncul, terdapat search engine untuk protokol atau pengguna lain, seperti Archie untuk situs anonymous FTP dan Veronica untuk protokol Gopher. Baru-baru ini muncul juga search engine online yang menggunakan XML atau RSS. Dengan ini search engine menjadi lebih efisien mengindex data pada website tanpa tuntutan yang rumit. Sehingga website hanya menyediakan suatu timbal balik XML dengan index-index search engine. Timbal-balik XML secara meningkat disediakan secara otomatis oleh weblogs atau blogs. Contoh search engine ini adalah feedster, seperti LjFind Search yang menyediakan jasa pencarian untuk Livejournal blogs.



Tidak ada komentar:

Posting Komentar