Artikel ini berdasarkan hasil riset yang saya lakukan kepada salah satu client. Untuk kredential, saya akan menyembunyikan nama, jenis bisnis/layanan, dan beberapa hal yang menyangkut hak cipta.
Tujuan dari riset ini adalah untuk memberikan gambaran kepada teman-teman semua, tentang bagaimana performa sebuah situs yang di crawl, berdasarkan jenis file HTML dan JavaScript.
Artikel ini akan cocok bagi teman-teman yang saat ini sedang mengerjakan optimisasi situs berbasis JS Rendering, semoga mendapat insight, dan data pendukung jika butuh berdiskusi tentang crawl prioritizations.
Pendahuluan
Sebagaimana kita ketahui, saat ini banyak sekali website yang didevelop menggunakan framework JS, karena memiliki banyak kelebihan, terutama dari sisi development dan fleksibilitas.
Ditambah, beberapa website tersebut ada yang diintegrasikan dengan app, istilah kerennya mungkin Progressive Web App (PWA).
Disisi lain, Website dengan JS masih memiliki beberapa kelemahan jika ditinjau dari sisi SEO, terutama soal onpage. Karena beberapa isue berkaitan dengan Core Web Vital (CWV) biasanya dipicu oleh file dengan extension *.js, semakin banyak JS yang dipanggil, bisa memperlambat performa situs saat loading.
Bukan berarti web dengan JS berarti jelek, ya, karena banyak studi kasus yang saya lakukan dengan client berbasis JS, bisa kok perform dengan baik, selama proses optimasinya tepat.
Google sendiri merekomendasikan sebuah halaman web setidaknya tersusun dari HTML. Atau jika menggunakan JS sebagai framework, setidaknya hasil akhir dari proses rendering menggunakan framework tersebut adalah HTML, untuk memudahkan proses crawling.
Tentang Studi Kasus
Nah, pada kesempatan kali ini, saya membawa sesuatu yang menarik untuk dibahas. Berkaitan dengan file JS dan HTML, mana sih yang lebih ramah dan mudah perform (secara ranking) dari sisi SEO.
Hasil studi kasus ini real, ya, menggunakan data dari client pengguna jasa SEO Consultation saya. Sebut namanya Client A.
Client A berfokus untuk menggunakan strategi SEO dalam aktivitas digital marketing, mereka memiliki 2 website yang berbeda domain, dengan tujuan salah satunya untuk akusisi pengguna di Indonesia (diwakilkan oleh Domain B), dan satu domain lainnya untuk market diluar Indonesia (diwakilkan oleh Domain A).
Untuk membuat hasil riset ini objektif, saya memfilter performa situs tersebut dari negara yang sama, yaitu Indonesia, hal ini dapat kita lakukan di search console. Berikut grafik performa dari kedua domain.
Yang menarik adalah, kedua domain tersebut menyajikan isi konten yang sama, seperti mirroring ke domain lainnya. Di dalamnya sudah diadaptasikan SEO Faktor untuk multilanguage SEO, dan canonicalnya sudah aman (tidak ada kendala).
Metode Pengujian
Tidak ada hal spesial yang saya lakukan untuk masing-masing, terutama berkaitan dengan technical SEO, on page, dan offpage. Namun dari aktivitas yang dilakukan, ada suatu fakta menarik yang menjadi dasar pembuatan artikel ini, yaitu: Masing-masing menunjukan data yang berbeda ditinjau dari file type yang di crawl oleh Search Engine.
Pada gambar di atas, kalian bisa melihat, bahwa Google lebih banyak mengakses file berbentuk JSON atau JavaScript pada domain A, sedangkan pada domain B, Google lebih banyak mengakses file HTML.
Dari sini, hipotesis sementara adalah karena domain A mengadaptasi Dynamic Rendering pada situsnya, agar bisa menyajikan konten yang sama pada domain B, mengakibatkan crawlbot mendapati file JSON untuk di crawl.
Dari sini, saya mencoba menggunakan tools analisa SEO untuk mengetahui performa kedua website tersebut, untuk keyword-keyword yang sudah di lacak (di record). Artinya, keyword yang dimonitor, sama, untuk kedua domain tersebut, dan negara spesifik Indonesia. Berikut hasilnya:
Dari data diatas, dapatkah kalian menemukan sesuatu yang menarik?
Yup, file HTML pada domain B, memberikan kontribusi yang cukup signifikan terhadap growth dari Organic Keyword yang ditarget. berbanding terbalik dengan domain A, dimana file yang dominan di crawl adalah JSON.
Insight tentang fenomena ini
Seperti yang kita ketahui, salah satu kelemahan dalam Dynamic Rendering, adalah kemampuan rendering dibebankan kepada server. Bisa karena salah satu kendala, mengakibatkan dynamic rendering tidak bisa berjalan sesuai keinginan, mengakibatkan konten tidak bisa disajikan secara sempurna.
Dan ini terjadi dengan domain A yang memiliki beban kerja lebih berat, karena harus melakukan rendering. Sedangkan Domain B, sudah mendapatkan hasil dari proses rendering tersebut.
Hal ini juga dibahas oleh website onely, yang melakukan riset secara terpisah terkait bagaimana beban kerja yang dialami oleh Google Bot, terhadap file JavaScript vs HTML.
Dalam hasil penelitian tersebut, disebutkan bahwa Crawlbot butuh setidaknya 9x waktu lebih banyak untuk mendapatkan informasi dari website dengan JavaScript file, ketimbang HTML plain.
Kesimpulan
Sesuai dengan best practice, saat mengambil informasi dari sebuah halaman pada website, mesin pencari seperti Google akan lebih mudah membaca konten dengan HTML, dibanding dengan jenis file lain.
Dengan kemudahan tersebut, Google akan lebih cepat memproses crawling, mengakibatkan domain B mendapat kredit, dimana performanya yang lebih baik ketimbang domain A.
Perlu diingat, kedua domain tersebut milik Client A, menyajikan informasi yang sama persis.
Jika teman-teman sedang mengerjakan campaign SEO untuk website yang menerapkan framework JS, pastikan setiap HTML tag yang penting untuk diakses oleh Google bot, dapat terbaca atau terender dengan sempurna, untuk mendapatkan performa yang lebih baik.
Jika artikel ini memancing perhatian kalian untuk berdiskusi lebih lanjut, silahkan join ke Group Telegram TurnBackLink, atau ikut acara-acara yang Saya adakan di tiap-tiap kota besar di Indonesia. Salah satunya acara berikut ini:
Jadwal tertera di website TurnBackLink.