Rabu, 12 Juli 2017

Analisis Website

TUGAS SOFTSKILL MENGANALISA WEBSITE


 Analisis Web adalah pengukuran, pengumpulan, analisis dan pelaporan data internet untuk tujuan memahami dan mengoptimalkan penggunaan web. Web analytics bukan hanya alat untuk mengukur lalu lintas web, tetapi dapat digunakan sebagai alat untuk bisnis dan riset pasar, dan untuk menilai dan meningkatkan efektivitas dari sebuah situs web, membantu orang untuk memperkirakan bagaimana lalu lintas ke situs web berubah setelah peluncuran kampanye iklan baru. Web analytics menyediakan informasi tentang jumlah pengunjung ke sebuah situs web dan jumlah tampilan halaman. Ini membantu mengukur lalu lintas dan popularitas tren yang berguna untuk riset pasar.

Pengukuran Web
pengukuran kinerja web (web measurement) adalah seni untuk mengumpulkan data dan menganalisa data agar dapat digunakan dan mudah dibaca oleh manusia. Salah satu teknik mengukur dan menguji suatu kinerja web adalah dengan mengukur pengalaman seseorang atau user experience pengunjung situs yang berinteraksi dengan halaman-halaman web yang berada di internet.
Ada beberapa tools yang digunakan untuk mengukur website dari segi kecepatan akses dan performanya, serta mengukur banyaknya pengunjung suatu website. Dibawah ini akan dipaparkan beberapa tools tersebut:
1. Pingdom Tools






Merupakan sebuah alat ukur kecepatan website dapat di akses, nilai dari sebuah website, dan beberapa ukuran dari sebuah website tersebut.
Beberapa kelebihannya di kategorikan sebagai berikut :
Performance Grade : melihat nilai kecepatan performa halaman web, dari akses DNS, browser cache, combine external css dan lain-lain.
Waterfall : melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan sampai seberapa cepat script tersebut dapat di akses.
Page Analysis : melihat detail analisa halaman web.
History : melihat detail akses dari beberapa hari lalu.
Kekurangan yang terdapat pada tools ini, sama seperti tools alat ukur akses web pada umumnya yaitu Membutuhkan akses internet yang stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap website tersebut tidak stabil/berjalan dengan baik.
2. GTmetrix
      Adalah website untuk menganalisa kecepatan web yang tersedia secara gratis, dengan menggunakan google page speed dan Yahoo Yslow sebagai analyze engine dan untuk menampilkan hasil serta rekomendasi yang harus dilakukan.
Dengan GTmetrix juga dapat membandingkan beberapa URL sekaligus

3. Alexa Rank

      Alexa Internet, Inc. adalah perusahaan yang mengoperasikan situs yang menyediakan informasi mengenai banyaknya pengunjung suatu situs dan urutannya. Cara kerja Alexa rank Alexa memberikan peringkat ke sebuah situs berdasarkan jumlah pengunjung unik. Semakin rendah alexarank dari situs berarti situs memiliki sedikit pengunjung unik.Jadi jika Anda bisa mendapatkan lebih banyak traffic ke situs Anda, Anda akan mendapatkan lebih rendah alexa rank.

Selain tools-tools diatas, masih banyak tools serupa lainnya yang bisa dicari sendiri di Search Engine.


Crawlers

Crawler adalah robot milik search engine yg tugasnya mengumpulkan informasi pada halaman blog/web dan semua media internet yg bisa diindeks oleh search engine.
Cara kerja Crawlers, Pertama robot mengumpulkan informasi pada halaman blog/web dan semua media internet yg bisa diindeks oleh search engine. Robot tersebut kemudian membawa informasi yg didapatnya ke data center. Di data center, data tersebut kemudian di oleh sedemikian rupa, apabila memenuhi persyaratan, maka dia akan dimasukkan ke dalam indeks. Nah, proses yg dilakukan oleh user search engine adalah memanggil indeks-indeks tersebut, apabila indeks2 memiliki kesesuaian dengan yg dicari user (dan bila memiliki peringkat yg baik), di akan ditampilkan di halaman utama search engine (berperingkat).
Web crawler adalah suatu program atau script otomat yang relatif simple, yang dengan metode tertentu melakukan scan atau “crawl” ke semua halaman-halaman Internet untuk membuat index dari data yang dicarinya. Nama lain untuk web crawl adalah web spider, web robot, bot, crawl dan automatic indexer.
Web crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah yang terkait dengan search engine. Search engine menggunakan web crawl untuk mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik. Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet mengetikkan kata pencarian di komputernya, search engine dapat dengan segera menampilkan web site yang relevan.
Ketika web crawl suatu search engine mengunjungi halaman web, ia “membaca” teks yang terlihat, hyperlink, dan konten berbagai tag yang digunakan dalam situs seperti meta tag yang banyak berisi keyword. Berdasar informasi yang dikumpulkan web crawl, search engine akan menentukan mengenai apakah suatu situs dan mengindex informasinya. Website itu kemudian dimasukkan ke dalam database search engine dan dilakukan proses penentuan ranking halaman-halamannya.

Search Engine
Mesin pencari atau Search engine adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupundirektori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search danYahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS.
Mesin pencari web bekerja dengan cara menyimpan informasi tentang banyak halaman web, yang diambil langsung dari WWW. Halaman-halaman ini diambil dengan web crawler — browser web otomatis yang mengikuti setiap pranala/link yang dilihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara indeks-nya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.
Selain halaman web, Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian berupa pranala yang merujuk pada file, seperti file audio, file video, gambar, foto dan sebagainya, serta informasi tentang seseorang, suatu produk, layanan, dan informasi beragam lainnya yang semakin terus berkembang sesuai dengan perkembangan teknologi informasi.
Ketika seseorang mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan kadang-kadang sebagian teksnya.
Archiving Web
Adalah proses pengumpulan bagian-bagian dari World Wide Web untuk memastikan informasi tersebut diawetkan dalam arsip bagi para peneliti di masa depan, sejarawan, dan masyarakat umum. Web Archivist biasanya menggunakan web crawler untuk menangkap otomatis karena ukuran besar dan jumlah informasi di Web. Organisasi terbesar web pengarsipan berdasarkan pendekatan bulk crawling adalah Internet Archive yang berusaha untuk mempertahankan sebuah arsip dari seluruh Web.
Web Archive adalah Sebuah file format terkompresi, didefinisikan oleh Java EE standar, untuk menyimpan semua sumber daya yang diperlukan untuk menginstal dan menjalankan aplikasi Web dalam satu file.
Teknik yang paling umum digunakan dalam pengarsipan Web adalah dengan menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama seperti yang user biasa lihat pada Web. Contoh pengarsipan web yang menggunakan web crawlers diantaranya adalah :
1. Heritrix

Heritrix adalah crawler web yang dirancang untuk keperluan Web Archiving. Heritrix ditulis oleh Internet Archive. Heritrix berlisensi free software dan ditulis dalam bahasa Java. Interface utama dapat diakses menggunakan Web Browser,, ada beberapa baris perintah yang opsional dapat digunakan untuk menginisiasi Crawler.
Heritrix dikembangkan bersama oleh Internet Archive dan perpustakaan nasional Nordic pada awal 2003. Rilis resmi pertama adalah pada bulan Januari 2004, dan telah terus ditingkatkan oleh karyawan dari Internet Archive dan pihak lain yang berkepentingan.
Heritrix bukan crawler utama yang digunakan untuk menjelajah konten untuk koleksi web Internet Archive selama bertahun-tahun. Penyumbang terbesar untuk koleksi adalah Alexa Internet. menjelajah web untuk keperluan sendiri, dengan menggunakan crawler bernama ia_archiver. Alexa kemudian menyumbangkan materi ke Internet Archive. Internet Archive sendiri melakukan crawlingnya sendiri menggunakan Heritrix, tetapi hanya pada skala yang lebih kecil.
Mulai tahun 2008, Internet Archive mulai peningkatan kinerja untuk melakukan Crawling skala luas sendiri, dan sekarang telah mengumpulkan sebagian besar isinya.
2. HTTrack

HTTrack merupakan Web Crawler yang gratis dan bersifat open source, dikembangkan oleh Xavier Roche dan berlisensi di bawah Lisensi GNU General Public License Versi 3. HTTrack memungkinkan pengguna untuk men-download situs World Wide Web dari Internet ke komputer lokal. HTTrack juga dapat mengupdate situs mirror yang ada dan melanjutkan download terputus. HTTrack dikonfigurasi dengan option dan oleh filter (include/exclude), dan memiliki sistem bantuan yang terintegrasi. Ada versi baris perintah dasar dan dua versi GUI (WinHTTrack dan WebHTTrack)
HTTrack menggunakan crawler Web untuk men-download website. Beberapa bagian dari situs web tidak dapat didownload secara default karena protokol exclusion robot dinonaktifkan selama program. HTTrack dapat mengikuti link yang dihasilkan dengan dasar JavaScript dan di dalam Applet atau Flash, tapi bukan kompleks link (dihasilkan dengan menggunakan fungsi atau ekspresi) atau peta gambar server-side.
3. Wget

GNU Wget, seringkali hanya disebut wget, adalah sebuah program komputer sederhana yang mengambil materi dari web server, dan merupakan bagian dari Proyek GNU. Namanya diturunkan dari World Wide Web dan get, konotatif dari fungsi primernya. Program ini mendukung pengunduhan melalui protokol HTTP, HTTPS, dan FTP, protokol berbasis TCP/IP yang paling luas digunakan untuk penjelajahan web.
Fitur-fiturnya meliputi pengunduhan rekursif, konversi pranala untuk peninjauan offline dari HTML lokal, mendukung proxy, dan lebih banyak lagi. Pertama kali muncul pada tahun 1996, dilatarbelakangi oleh ledakan penggunaan Web, menyebabkan penggunaan yang luas di antara para pengguna Unix dan distribusi Linuxterkemuka. Ditulis menggunakan bahasa C portabel, Wget dapat diinstal secara mudah pada sistem mirip-Unix apa saja dan telah diportasi ke beberapa lingkungan, termasuk Mac OS X, Microsoft Windows, OpenVMS danAmigaOS.
Wget digunakan sebagai basis program-program GUI semisal Gwget untuk desktop GNOME. Dirilis di bawah Lisensi Publik Umum GNU v3, Wget adalah perangkat lunak bebas.

Cara kerja Web Archiving
1.   Menemukan Informasi Website lewat crawling web
Bagaimana cara kerja web crawling Google ? Google memiliki software khusus untuk proses perayapan website/blog yang bisa diakses secara umum. Secara sederhana cara kerja web crawler Google menggunakan aplikasi yang disebut Googlebot.
Crawler Googlebot akan merayapi setiap halaman website/blog seperti ketika sobat belajar online membuka link lewat browser, kemudian mengikuti link setiap halaman web dan membawa data dari website/blog tersebut ke server Google.
Proses crawling web oleh googlebot dimulai dari crawling alamat utama web (domain), kemudian ke sitemap (peta situs) yang dibuat oleh pemilik website.
adanya sitemap website akan memudahkan google bot google dalam proses crawling web/blog tersebut.
Pada akhirnya program google bot akan menentukan situs mana yang ramai pengunjung dan selalu diupdate, berapa banyak konten yang ada, untuk menentukan posisinya.
Google tidak menerima bayaran dalam memposisikan website. Website/blog yang menurut mesin pencari google bagus maka akan berada di posisi pertama hasil pencarian Google. Mengapa Google tidak mau menerima bayaran dalam merayapi dan mengindeks website ? Hal ini tentu saja berkaitan dengan manfaat untuk pengguna yang mencari informasi lewat mesin pencari google, karena itu merupakan bisnis utama mesin pencari Google.
2.   Mengorganisasi informasi hasil proses crawling web
Setelah proses crawling web, maka mesin pencari google kemudian memasukkannya dalam daftar indeks Google. Gambaran internet itu ibarat perpustakaan dengan miliaran buku, namun sayangnya tidak mempunyai katalog khusus dan pengarsipan utama. Dari situ, maka google mengumpulkan alamat dan isi halaman-halaman web yang dicrawl oleh google bot kemudian membuat indeks. Dengan begitu mesin pencari google tahu persis bagaimana Google melihat halaman yang bersangkutan.
Gambaran bagaimana google membuat indeks dari miliaran web yang ada di dunia, coba sobat belajar online buka indeks buku yang ada di bagian belakang. Indeks Google juga berisi tentang informasi kata-kata dan lokasi kata tersebut.
Dengan perkembangan web generasi kedua, ditambah dengan html 5 yang memberikan kesempatan kepada developer web untuk membuat web dinamis semakin banyak jenis konten yang harus diindeks google, dari teks, gambar dan video. Google pun juga menyempurnakan pengindekan konten-konten yang ada di internet untuk memahami apa yang diinginkan oleh pencari informasi lewat mesin pencari Google.
3.   Pengaturan crawling pada pemilik website/blog
Walaupun Google dapat merayapi setiap halaman web, namun mesin pencari juga memberikan kebebasan kepada pemilik situs yang tidak ingin websitenya dirambah dan diindeks mesin pen31cari Google.
Untuk memilih dan memberitahu google bot agar tidak merayapi dan mengindeks halaman sensitif yang berbahaya apabila diakses oleh umum, maka sobat dapat menggunakan file robot.txt. Sobat dapat mengakses Google Webmasters Tool untuk mendapatkan file robots.txtdan mengisi bagian mana yang tidak boleh dirayapi dan diindeks dari website/blog sobat oleh Google crawl.


NAMA KELOMPOK :
1.      Aji Pangestu Dwi Saputra
2.      Andre Bagas Kurniawan
3.      Syahrul Setiyawan


Referensi :

Rabu, 26 April 2017

Tutorial Membuat Website di Blogger

Cara Membuat Blog di Blogger atau Blogger Gratis

Untuk cara membuat blog di Blogspot gratis, silahkan menuju blogger.com dan login menggunakan akun Google. Jika belum memiliki akun Google (akun Gmail), silahkan menuju tutorial ” Cara Membuat Email Baru Lengkap Gambar “. Setelah anda mempunyai akun gmail atau akun google, silahkan kunjungi ” www.blogger.com  dan kita akan melihat halaman login seperti gambar berikut.

Setelah login kita akan menghadapi pilihan untuk menggunakan identitas seperti dibawah ini, atau kita dapat memilih profil Google plus atau menggunakan profil Blogspot. Lebih di sarankan memilih profil Google plus.

Langsung tekan tombol ” Lanjutkan ke Blogger “.
Setelah itu kita akan melihat halaman membuat blog di blogspot seperti gambar berikut. Pada halaman ini kita akan melihat daftar blog yang telah dibuat, karena kita baru akan memulai dalam membuat blog maka kita belum melihat daftar blog tersebut, untuk memulai membuat blog silahkan klik tombol ” Blog Baru “.


Memberi Nama dan Alamat Blog di Bloggspot/Blogger
Setelah kita klik tombol ” Blog Baru ” kita akan melihat sebuah halaman baru untuk memulai dengan menambahkan nama dan memilih nama domain. Untuk tips trik dalam memilih nama domain silahkan anda kunjungi tutorial ” Tips Cara Memilih Nama Domain Blog atau Website “.
Untuk lebih jelasnya silahkan perhatikan gambar membuat blog di blogspot berikut:

Keterangan nomor pada gambar
  • Nomor 1 adalah tempat kita untuk memberi judul atau nama blog
  • Nomor 2 adalah tempat kita untuk memberi alamat blog kita
  • Nomor 3 adalah tempat kita untuk memilih template blog kita, kita bisa merubah-nya nanti pada halaman template, jadi untuk sementara pilih saja yang standar
  • Nomor 4 merupakan keterangan alamat blog yang kita ketik tersedia atau tidak, pastikan alamat blog tersedia.
  • Nomor 5 adalah tombol untuk mengakhiri , tekan tombol ini jika anda sudah merasa puas dengan nama dan alamat yang anda pilih.

Mengenal Dashboard di Blogspot/Blogger
Sekarang blog kita sudah dibuat tetapi belum selesai sepenuhnya. Ada beberapa pengaturan yang perlu kita lakukan pada blog yang baru dibuat, agar membuat blog di Blogspot kita semakin SEO, seperti merubah template dan menambah halaman. Sekarang kita berada di dashboard Blogspot di mana kita akan melihat backend blog dan bisa pergi ke pengaturan dan membuat perubahan untuk meningkatkan visibilitas blog. Berikut adalah screenshot dashboard beserta penjelasan:

Keterangan nomor pada gambar
  • Nomor 1 merupakan tombol yang bisa kita gunakan jika ingin membuat blog baru
  • Nomor 2 merupakan tombol yang bisa kita gunakan jika ingin membuat post baru
  • Nomor 3 merupakan tombol yang bisa kita gunakan jika ingin melihat blog secara live
  • Nomor 4 merupakan daftar shortcut menuju pengaturan, post, dan lain-lain
  • Nomor 5 merupakan area artikel dari blog yang kita ikuti atau follow
  • Nomor 6 merupakan area identitas atau profil kita di google, dalam area ini kita bisa login dan logut.
Setelah kita mengenal fungsi dari dashboard blogspot/blogger, silahkan anda klik menu “ Ikhtisar ” untuk melihat daftar menu dalam memulai membuat post, halaman, sampai mengatur adsense pada blog kita.
Untuk melihat tampilan blog yang sudah dibuat, silahkan klik tombol no 3 pada nomor diatas, maka tampilan blog akan terlihat seperti gambar dibawah ini. Perhatikan bahwa template sudah sesuai dengan template yang telah dipilih sebelumnya.





Senin, 20 Maret 2017

Pengantar Web Science

Definisi Web Science

Web Science adalah ilmu pengetahuan yang digunakan untuk membuat dan memanipulasi suatu web. Untuk dapat memahami definisi dari Web Science kita harus memahami arti masing-masing kata.

Web Science terdiri dari dua kata dan masing-masing memiliki arti yang berbeda, yaitu Web dan Science. Web atau Website atau Situs adalah kumpulan halaman yang dapat menampilkan informasi, dapat berupa text, gambar, animasi, suara, atau gabungan dari semuanya, baik bersifat statis maupun dinamis dan membentuk suatu rangkaian yang saling terkait yang dihubungkan dengan jaringan halaman.

Setelah mengetahi arti kata Web atau Website, selanjutnya adalah Science. Science merupakan suatu ilmu pengetahuan yang bersifat akurat atau pasti yang didapat melalui serangkaian penelitian. Science juga berhubungan dengan segala sumber ilmu pengetahuan yang bermanfaat begi kehidupan manusia.

Dengan mengetahui masing-masing dari dua kata terserbut, yaitu Web dan Science. Maka, dapat disimpulkan Web Science adalah segala sesuatu yng berhubungan dengan ilmu pengetahuan yang bermanfaat dan dapat digunakan sebagai referensi dalam mencari informasi. Diperoleh dari sumber terpercaya dan akurat yang dapat diakses melalui dunia maya atau dengan basis Web.

Sejarah Web

Sejarah Web bermula di European Laboratory for Particle Physics (lebih dikenal dengan nama CERN), di kota Geneva dekat perbatasan Perancis dan Swiss. CERN merupakan suatu organisasi yang didirikan oleh 18 negara di Eropa. Dibulan Maret 1989, Tim Berners dan peneliti lainnya dari CERN mengusulkan suatu protokol sistem distribusi informasi di Internet yang memungkinkan para anggotanya yang tersebar di seluruh dunia saling membagi informasi dan bahkan untuk menampilkan informasi tersebut dalam bentuk grafik.
Web Browser pertama dibuat dengan berbasiskan pada teks. Untuk menyatakan suatu link, dibuat sebarisan nomor yang mirip dengan suatu menu. Pemakai mengetikkan suatu nomor untuk melakukan navigasi di dalam Web. Kebanyakan software tersebut dibuat untuk komputer-komputer yang menggunakan Sistem Operasi UNIX, dan belum banyak yang bisa dilakukan oleh pemakai komputer saat itu yang telah menggunakan Windows. Tetapi semua ini berubah setelah munculnya browser Mosaic dari NCSA (National Center for Supercomputing Applications).
Di bulan Mei 1993, Marc Andreesen dan beberapa murid dari NCSA membuat Web browser untuk sistem X-Windows yang berbasiskan grafik dan yang mudah untuk digunakan. Dalam beberapa bulan saja, Mosaic telah menarik perhatian baik dari pemakai lama maupun pemakai baru di Internet. Kemudian NCSA mengembangkan versi-versi Mosaic lainnya untuk komputer berbasis UNIX, NeXT, Windows dan Macintosh.
Pada tahun 1994, Marc Andreesen meninggalkan NCSA, dan kemudian bersama Jim Clark, salah satu pendiri dari Silicon Graphics, membuat Netscape versi pertama. Kehadiran Netscape ini menggantikan kepopuleran Mosaic sebagai Web browser dan bahkan sampai saat ini Netscape merupakan browser yang banyak digunakan setelah Internet Explorer dari Microsoft.
Pada tahun yang sama CERN dan MIT mendirikan suatu konsorsium yang dinamakan World WIde Web Consortium (W3C) yang bertugas untuk membangun standar bagi teknologi Web.
Pada awal perkembangannya, sewaktu browser masih berbasiskan teks hanya terdapat sekitar 50 website. Di akhir tahun 1995 jumlah ini telah berkembang mencapai sekitar 300.000 web site. Dan diperkirakan sekarang ini jumalh pemakai Web telah mencapat sekitar 30-an juta pemakai diseluruh dunia.
Awal mula Web Science didirikan pada tahun 2006 dengan nama Web Science Research Initiative (WSRI). Web Science ini awalnya adalah hasil dari Memorandum of Understanding antara MIT CSAIL dan University of Southamton, ECS. Ambisinya adalah mengkoordinasi dan mendukung sentralisasi pembelajaran World Wide Web. Sejak awal diluncurkan, konsep Web Science sudah menyebar secara meluas dan mengukuh diri sebagai area aktifitas yang penting. Website pertama kali ditemukan oleh Sir Timothy John, tim Berners-Lee. Pada tahun 1991 Website terhunung dengan jaringan. Dengan tujuan untuk mempermudah tukar menukar informasi.

Aktifitas WSRI fokus pada artikulasi agenda penelitian untuk komunitas scientific, mengkoordinasi pengembangan materi pembelajaran Web Science dan mengikat pemikiran tentang kepemimpinan pada sektor yang berkembang ini. Untuk melanjutkan aktifitasnya dan mendukung pengembangan Web Science secara global, para direktur WSRI membuat badan amal the Web Science Trust (WST). WST bekerja sama dengan World Wide Web.

1.      Web 1.0, Web 2.0, Web 3.0
A.    Web 1.0
Merupakan teknologi Web generasi pertama yang merupakan revolusi baru di dunia Internet. Web1.0 adalah teknologi Web yang pertama kali digunakan dalam aplikasi World Wide Web. Pada dasarnya Website yang dibangun pada generasi pertama ini secara umum dikembangkan untuk pengaksesan informasi dan memiliki sifat yang sedikit interaktif.
Karakteristik Web 1.0 adalah :
1)      Merupakan halaman Web statis atau hanya berfungsi untuk menampilkan atau Read Only.
2)      Halaman masih dalam design Html murni,  dan hanya memungkinkan untuk melihat tanpa interaksi.
3)      Masih menggunakan form-form yang dikirim melalui E-mail, sehingga biasanya hanya komunikasi satu arah.

B.     Web 2.0
Web 2.0 adalah sebuah istilah yang dicetuskan pertama kali oleh O’Reilly Media pada tahun 2003, dan dipopulerkan pada konferensi Web 2.0 pertama kali di tahun 2004, merujuk pada generasi yang dirasakan sebagai generasi kedua layanan berbasis Web seperti situs jaringan social, wiki, perangkat komunikasi, dan folksonomi yang menekankan pada kolaborasi online dan berbagi anter pengguna. Web 2.0 merupakan Web yang mengarah pada “Read and Write”. Pada Web 2.0 ini adalah Web yang lebuh mempunyai keunggulan daripada Web 1.0. web 2.0 mempunyai inovasi dari fitur-fitur yang terbaru yang menyebabkan munculnya suatu pandangan tentang bagaimana isi Web 2.0 ini.
Karakteristik web 2.0. adalah:
1)      Web sebagai platform.
2)      Data sebagai pengendali utama.
3)      Efek jaringan diciptakan oleh arsitektur partisipasi.
4)      Inovasi dalam perakitan sistem serta situs disusun dengan menyatukan fitur dari pengembang yang terdistribusi dan independen (semacam model pengembangan “open source”).
5)      Model bisnis yang ringan, yang dikembangkan dengan gabungan isi dan layanan.
6)      Akhir dari sikllus peluncuran (release cycle) perangkat lunak (perpetual beta).
7)      Mudah untuk digunakan dan diadopsi oleh user.

C.     Web 3.0
Pada tahun 2001, Tim Berners-Lee, penemu World Wide Web, menulis sebuah artikel ilmiah yang menggambarkan Web 3.0 sebagai sebuah sarana bagi mesin untuk membaca halaman-halaman Web. Web 3.0 berhubungan dengan konsep Web semantik, yang memungkinkan isi web dalam bentuk format yang bisa diakses oleh agen-agen software.
menurut John Markoff, Web 3.0 adalah sekumpulan teknologi yang menawarkan cara baru yang efisien dalam membantu komputer mengorganisasi dan menarik kesimpulan dari data online. Keunikan dari Web 3.0 adalah konsep dimana manusia dapat berkomunikasi dengan mesin pencari. Kita bisa meminta Web untuk mencari suatu data spesifik tanpa bersusah-susah mencari satu per satu dalam situs-situs Web. Web 3.0 juga mampu menyediakan keterangan-keterangan yang relevan tentang informasi yang ingin kita cari, bahkan tanpa kita minta.
Karakteristik web 3.0. adalah:
1)      Web semantic.
2)      Format mikro.
3)      Pencarian dalam bahasa pengguna.
4)      Penyimpanan data dalam jumlah besar.
5)      Pembelajaran lewat mesin.
6)      Agen rekomendasi, yang merujuk pada kecerdasan buatan Web.

Arsitektur Web

Arsitektur Website adalah suatu pendekatan terhadap desain dan perencanaan situs yang, seperti arsitektur itu sendiri, melibatkan teknis, kriteria estetis dan fungsional. Seperti dalam arsitektur tradisional, fokusnya adalah benar pada pengguna dan kebutuhan pengguna. Hal ini memerlukan perhatian khusus pada konten web, rencana bisnis, kegunaan, desain interaksi, informasi dan desain arsitektur web. Untuk optimasi mesin pencari yang efektif perlu memiliki apresiasi tentang bagaimana sebuah situs Web terkait dengan World Wide Web.  

Macam-macam Arsitektur Web :
1)      Pattern /Pola.
2)      Framewok.
3)      Model View Control (MVC).
4)      Struts.
5)      Codeigniter.
6)      Integrasi Sistem.
7)      Soa

Konsep dan Pengamanan Web

Konsep dasar untuk keamanan Web dan Web service, keamanan atau security pada sebuah situs busa dikatakan merupakan sesuatu hal yang sangat wajib hukumnya bagi pelaku bisnis online seperti IM atau Online Store, pasalnya semua kegiatan yang berkaitan dengan akses data dan lain sebagainya hingga akhirnya bisa menjadi materi terjadi pada akses Web tersebut.

Teknologi keamanan yang biasa digunakan untuk mengatasi aspek keamanan pada sistem berbasis Web pada umumnya, seperti Secure socket Layer (SSL)/ Transport Secure Layer (TSL), tidak cukup memadai jika diterapkan pada system berbasis Web Service. Hal ini dikarenakan SSL/TLS menyediakan solusi kemanan dengan konteks point-to-point pada level transport layer. Sementara karakteristik transaksi Web Service, membutuhkan pengamanan dalam konteks end-to-end pada level application layer. Teknologi Firewall yang menyediakan pengamanan pada level Network Layer juga tidak cukup memadai, karena karakteristik transaksi Web Service yang menggunakan standard internet (HTTP, SMTP, FTP) akan dilewatkan oleh Firewall karena dianggap Sebagai trafik Internet pada umumnya (firewall friendly).

STANDAR PENGAMANAN WEB

XML signatures merupakan dokumen XML yang berisi informasi mengenai tanda tangan digital. Tanda tangan digital dapat dilakukan terhadap dokumen dengan tipe apapun, termasuk dokumen XML. XML signatures dapat ditambahkan pada dokumen XML yang ditandatangani ataupun dapat berupa sebuah dokumen XML tersendiri. Secara garis besar, struktur XML signatures adalah sebagaimana (dimana “?” menandakan nol atau satu kemunculan, “+” menandakan satu atau lebih kemunculan, dan “*” menandakan nol atau lebih kemunculan) ditampilkan pada

Kode XML
Salah satu keuntungan penggunaan standar XML signature adalah dapat dilakukannya penandatanganan sebuah dokumen XML oleh lebih dari satu pihak. Pihak tertentu hanya akan menandatangani elemen XML yang menjadi tanggung jawabnya.

XML Encryption
Pengamanan terhadap data yang dipertukarkan merupakan salah satu kebutuhan yang muncul pada proses pertukaran data. W3C telah merekomendasikan Enkripsi XML sebagai metode alternatif untuk pengamanan data dengan menggunakan format XML. Namun demikian, Enkripsi XML dirancang untuk dapat diterapkan baik pada data XML maupun data non XML.
Implementasi Enkripsi XML memungkinkan penggabungan data yang telah dienkripsi dengan data yang tidak dienkripsi di dalam satu dokumen XML. Dengan demikian, proses enkripsi maupun dekripsi dapat dilakukan hanya pada data yang memang perlu diamankan saja.

XML Key Management Specification

XML key management specification (XMKS) merupakan sebuah spesifikasi infrastruktur yang digunakan untuk pengamanan transaksi berbasis XML. Pada web services digunakan format komunikasi data berbasis XML dan untuk keamanan data-data tersebut digunakan teknik kriptografi kunci-publik. Pengelolaan terhadap kunci-publik ditentukan dengan adanya public-key infrastructure (PKI).
XKMS merupakan bentuk pengembangan berikutnya dari PKI yang ada saat ini (PKIX) dan juga melakukan perubahan standar PKI sebagai salah satu bentuk web services. Dengan demikian XKMS dapat melakukan proses registrasi pasangan kunci-publik (private-key dan public-key), penentuan lokasi penyimpanan kunci-publik, validasi kunci-publik, pencabutan (revoke) kuncipublik, dan pemulihan (recover) kuncipublik. Oleh karena itu, keseluruhan struktur PKI akan dikembangkan ke dalam lingkungan berbasis XML. XML Key Management Specification yang diterapkan sebagai web service akan mengurangi bentuk “ketergantungan” terhadap fungsi PKI yang terintegrasi dalam aplikasi. Sebelumnya penyedia PKI haruslah mengembangkan fungsi-fungsi khusus yang diterapkan pada produk aplikasi yang akan digunakan sedangkan dengan adanya XKMS sebagai web service, pada pengembangan produk aplikasi cukup dibuat fungsi untuk menentukan pengguna (client) yang mengakses fungsi/layanan yang disediakan oleh XKMS.
Fungsi-fungsi pada XMKS meliputi:
  •  Registration (registrasi). Layanan pada XKMS dapat digunakan untuk mendaftarkan (registrasi) pasangan kunci dengan menggunakan fungsi “register”. Pembangkitan pasangan kunci-publik dapat dilakukan oleh client ataupun layanan. Pada saat kunci-kunci telah terdaftarkan, layanan XKMS akan melakukan pengelolaan pencabutan ataupun pemulihan kunci-kunci, yang dibangkitkan oleh server ataupun client.
  • Locating. Pada XKMS terdapat fungsi yang digunakan untuk mendapatkan kembali kunci-publik yang terdaftar.
  • Validation (validasi). Fungsi validasi digunakan untuk memastikan bahwa kunci-publik yang telah didaftarkan dengan layanan XKMS valid dan tidak kadaluarsa ataupun telah dicabut.
  • Keunggulan utama XKMS dibandingkan PKI yang ada sebelumnya adalah proses enkapsulasi kerumitan yang ada pada PKI menjadi komponen pada sisi server. Dengan demikian pihak client hanya perlu mengetahui cara mengakses antarmuka yang disediakan. 

WEB SCIENCE SECURITY

WS-Security atau juga dikenal sebagai Web Service Security Core Language (WSS-Core) merupakan spesifikasi keamanan Web Service yang mendefinisikan mekanisme pengamanan pada level pesan SOAP untuk menjamin message integrity & confidentiality.
Standard WS-Security saat ini dikembangkan secara resmi oleh OASIS berdasarkan spesifikasi yang diusulkan oleh Microsoft, IBM, dan VerySign pada 11 April 2002. Selanjutnya, OASIS melalui Web Service Security Technical Committee (WSS) melanjutkan pengembangan WS-Security dengan menetapkan beberapa spesifikasi teknis terpisah, seperti Core Specification, SAML Profile, XMrL Profile, X.509 Profile, dan Karberos Profile. Produk WSS untuk Core Specification (WSS-Core) adalah WSS: Soap Message Security. Spesifikasi lain yang merupakan bagian dari Core Specification ini adalah WSS: User Name Token Profile dan WSS: X.509 Certificate Token Profile.

Sumber Referensi :