Недавняя дискуссия среди команды Google Search Relations выдвигает на первый план проблему веб-разработки: заставить JavaScript хорошо работать с современными поисковыми инструментами.
В последнем подкасте Google Search Off The Record команда обсудила растущее использование JavaScript и тенденцию использовать его, когда он не требуется. Мартин Сплитт, адвокат разработчиков поиска в Google, отметил, что JavaScript был создан, чтобы помочь веб-сайтам конкурировать с мобильными приложениями, предоставляя такие функции, как push-уведомления и офлайн-доступ.
Однако команда предупредила, что ажиотаж вокруг функциональности JavaScript может привести к чрезмерному использованию. Хотя JavaScript во многих случаях практичен, он не является лучшим выбором для каждой части веб-сайта. Спектр JavaScript Сплитт описал текущую ситуацию как спектр между традиционными веб-сайтами и веб-приложениями. Он говорит: «Мы находимся в этом странном состоянии, когда веб-сайты могут быть просто веб-сайтами, в основном страницами и информацией, которая представлена на нескольких страницах и связана с ними ссылками, но также может быть и приложением».
Он предложил следующий пример спектра JavaScript: «Вы можете просматривать квартиры в браузере… это веб-сайт, потому что он предоставляет такую информацию, как площадь в квадратных футах, на каком этаже находится этот этаж, какой адрес… но это также приложение, потому что вы можете использовать 3D-изображение, чтобы прогуляться по квартире. ». Почему это важно? Джон Мюллер, специалист по поиску Google, отметил общую тенденцию среди разработчиков чрезмерно полагаться на JavaScript: «Многим людям нравятся эти JavaScript-фреймворки, и они используют их там, где JavaScript действительно имеет смысл, а потом говорят: «Почему бы мне просто не использовать его для всего?»».
Слушая дискуссию, я вспомнил исследование, о котором писал несколько недель назад. Согласно исследованию, чрезмерная зависимость от JavaScript может привести к потенциальным проблемам для поисковых систем с искусственным интеллектом. Учитывая растущую популярность поисковых роботов с искусственным интеллектом, я подумал, что важно обратить внимание на этот разговор. Хотя традиционные поисковые системы обычно хорошо поддерживают JavaScript, его реализация требует большего внимания в эпоху поиска с использованием ИИ.
Исследование показывает, что боты с искусственным интеллектом составляют все большую долю трафика поисковых роботов, но эти сканеры не могут отображать JavaScript . Это означает, что вы можете потерять трафик из поисковых систем, таких как ChatGPT Search, если слишком сильно полагаетесь на JavaScript. Что следует учитывать Использование JavaScript и ограничения поисковых роботов с искусственным интеллектом приводят к нескольким важным соображениям: Рендеринг на стороне сервера . Поскольку сканеры ИИ не могут выполнять JavaScript на стороне клиента, рендеринг на стороне сервера необходим для обеспечения видимости.
Доступность контента . Основные сканеры искусственного интеллекта, такие как GPTBot и Claude, имеют определенные предпочтения в отношении потребления контента. GPTBot отдает приоритет HTML-контенту (57,7%), а Клод больше внимания уделяет изображениям (35,17%). Новый подход к разработке . Эти новые ограничения могут потребовать переоценки традиционной стратегии разработки «сначала JavaScript».
Поскольку роботы с искусственным интеллектом становятся все более важными для индексации веб-сайтов, вам необходимо сбалансировать современные функции и доступность для сканеров с искусственным интеллектом. Вот несколько рекомендаций: Используйте серверный рендеринг для ключевого контента. Обязательно включите основной контент в исходный HTML. Применяйте методы прогрессивного улучшения. Будьте осторожны, когда использовать JavaScript. Чтобы добиться успеха, адаптируйте свой веб-сайт для традиционных поисковых систем и роботов с искусственным интеллектом, обеспечивая при этом удобство для пользователей.