undercover.co.id/undercover-co-id-4/">undercover.co.id/">https://www.undercover.co.id/ Crawlability of JS, Framework Modern dan Dampaknya ke Indexing — checklist React/Vue/Next. Di dunia web modern, JavaScript bukan lagi sekadar bumbu tambahan. Dia udah jadi bahan utama. Dari startup fintech sampai e-commerce raksasa, hampir semua pakai framework modern kayak React, Vue, sama Next.js. Masalahnya, makin banyak JavaScript berarti makin besar kemungkinan web lo gagal di-crawl.
Lo mungkin mikir: “Kan Googlebot udah bisa render JS?” Yes, benar… tapi jangan terlalu percaya 100%. Rendering JS itu resource-heavy. Search engine kayak Google, Bing, bahkan AI-first engine kayak Perplexity atau You.com punya batas. Kalau halaman lo ribet, mereka bisa nge-skip, delay, atau gagal indexing.
Kenapa JS Jadi Masalah di SEO?
- Two-wave indexing
Googlebot biasanya ngambil HTML dulu, terus render JS belakangan. Kalau ada konten penting cuma muncul setelah JS jalan, indexing bisa telat atau hilang. - Crawl budget
Render JS itu mahal. Bot harus alokasi resource lebih gede. Kalau website lo banyak page heavy JS, bot bisa prioritasin sebagian aja. - Technical glitch
Hal kecil kayak lazy load atau dynamic import bisa bikin konten gak muncul pas bot render.
Framework Modern = Double Edge Sword
- React
React populer, tapi default-nya client-side rendering. Tanpa SSR, bot cuma liat<div id="root"></div>. Konten asli muncul setelah JS jalan. Risiko indexing delay gede banget. - Vue
Vue lebih ringan, tapi problem sama. Kalau pakai Nuxt (SSR), lebih SEO-friendly. Kalau SPA murni, indexing susah. - Next.js
Next jadi golden boy karena bawa SSR & ISR (Incremental Static Regeneration). Ini bikin bot langsung dapet HTML siap render. Tapi tetap harus hati-hati, karena implementasi salah bisa bikin duplicate content (misalnya fallback pages).
Studi Kasus Nyata: Media Online Indonesia
Gue pernah liat kasus salah satu media online besar di Indonesia yang migrasi ke React. Traffic organiknya langsung drop 30% dalam 2 bulan. Kenapa? Karena ribuan artikel lama yang sebelumnya full HTML berubah jadi client-side rendered. Googlebot cuma dapet blank div, konten baru nongol setelah JS jalan. Crawl budget jadi kebuang.
Solusi mereka akhirnya:
- Pindah ke Next.js SSR.
- Deploy pre-render untuk page lama.
- Implementasi dynamic rendering khusus bot.
Setelah itu, indexing kembali normal dan traffic balik naik.
Checklist Crawlability 2026
Kalau lo develop web modern, ini checklist biar indexing gak keteteran:
- SSR (Server-Side Rendering)
Wajib kalau pakai React/Vue. Pake Next.js/Nuxt atau framework hybrid lain. - Prerendering
Untuk page statis (artikel, produk), generate HTML full dan serve ke bot. Bisa via tools kayak Prerender.io atau Vercel ISR. - Lazy Loading bijak
Jangan lazy load konten utama. Bot bisa gagal nge-load. Gunakan untuk gambar/video aja. - Check Rendered HTML
Selalu cek pakai “URL Inspection” di Google Search Console → lihat rendered HTML. Pastikan konten inti muncul. - Dynamic Rendering (opsional)
Serve versi HTML siap ke bot, versi JS interaktif ke user. Tapi hati-hati, Google udah bilang ini sementara, bukan solusi jangka panjang. - Structured Data
Jangan taruh schema di client-side aja. Pastikan ada di HTML awal.
baca juga
