[JavaScript, Node.JS, Google API, Контент-маркетинг] Как стать экспертом для поисковых систем
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Не так давно я познакомился с описанием E-A-T алгоритма от Google, который расшифровывается как «Expertise, Authoritativeness, Trustworthiness» (экспертность, авторитетность, достоверность). И мне, как автору, который пишет для разных сайтов стало интересно — насколько я сам соответствую критериям этого алгоритма и могу ли повлиять на текущую ситуацию. Тем более, что некоторые заготовки в виде открытой гугл таблицы для учета и мониторинга собственных публикаций LynxReport уже были.
Google Таблицы → Node.js → Google Charts → Сайт-визитка → Топ-3 место в поиске ФИО + специализация
На основании данных таблицы я решил дополнить сайт-визитку, сведениями о публикациях, которые бы генерировались автоматически. Что я хотел получить:
- Актуальную сводку публикаций, расположенную на временной шкале Google Charts.
- Автоматическую генерацию выходных данных и ссылок на статьи из гугл таблицы в html версию визитки.
- PDF версии статей со всех сайтов, из-за опасений закрытия некоторых старых сайтов в будущем.
Как получилось можно посмотреть здесь. Реализовано на платформе Node.js с использованием Bootstrap, Google Charts и Google Таблицы для хранения исходных данных.
Исходные данные о публикациях в Google Spreadsheet
Гугл-таблица LynxReport: учёт публикаций содержит все исходные данные и аналитику по публикациям. Я поддерживаю актуальность сведений на вкладке «Данные», вручную вписывая новые ссылки на статьи, остальное скачивается по большей части автоматически.
Часть таблицы LynxReport: учёт публикаций с исходными данными
Актуальные данные по просмотрам и комментариям подгружаются через формулы.
Например, чтобы получить количество просмотров со страниц Хабра в ячейке гугл таблиц используется формула:
=IF(
ISNUMBER(IMPORTXML(D6, "//*[@class='post-stats__views-count']"))
,
SUBSTITUTE(
IMPORTXML(D6, "//*[@class='post-stats__views-count']")
,",",".")
,
value(SUBSTITUTE(SUBSTITUTE(
IMPORTXML(D6, "//*[@class='post-stats__views-count']")
,"k","")
,",","."))*1000
)
Формулы это не самый быстрый вариант и для того, чтобы получить несколько сотен позиций приходится ждать около получаса. После окончания загрузки можно видеть все цифры как на скриншоте ниже. Они дают ответы какие темы популярны, а какие нет.
Часть таблицы LynxReport: учёт публикаций с аналитикой
Считывание данных из Таблицы и преобразование в формат Google Charts
Чтобы трансформировать эти сводные данные из гугл таблицы в сайт-визитку мне надо было преобразовать данные в формат временной шкалы Google Charts.
Получившаяся временная шкала Google Charts на сайте-визитке
Для того, чтобы корректно отрисовать такой график данные должны быть организованы следующим образом:
Данные для Google Charts на сайте-визитке в html виде
Чтобы выполнять все преобразования автоматически я написал под Node.js скрипт, который доступен на GitHub.
Если вы не знакомы с Node.js, то в своей предыдущей статье я подробно расписал как можно воспользоваться скриптом под разными системами:
- Windows
- macOS
- Linux
Ссылка с инструкциями здесь. Принцип аналогичен.
Работа скрипта по преобразованию в нужный формат данных и генерации pdf версий статей с сайтов (все строки обрабатываются мгновенно — я специально поставил задержку, чтобы записать это видео)
Для того считывать данные из гугл таблицы в автоматическом режиме я пользуюсьавторизацией по ключу.
Получить этот ключ можно в консоли управления проектами гугла:
Учетные данные в Google Cloud Platform
После завершения работы скрипта должны сгенерироваться два текстовых файла с html данными графиков и все pdf копии онлайн статей.
Данные из текстовых файлов я импортирую в html код сайта-визитки.
Генерация pdf копий статей с сайтов
При помощи Puppeteerсохраняю текущий вид статей вместе со всеми комментариями в pdf виде.
Если не ставить задержку, то несколько десятков статей по списку можно сохранить в виде pdf файлов всего за несколько минут.
А задержка нужна для того чтобы на некоторых сайтах (например на Т—Ж) успели подгрузиться комментарии.
Результаты
Поскольку написание скрипта затевалось с целью большего соответствия поисковым алгоритмам, то оценить результаты можно воспользовавшись поиском.
Поиск по имени и фамилии + указание специализации в обоих случаях возвращает ссылки на мои статьи и даже сайт-визитку:
В выдаче Яндекса:
В выдаче Гугла:
Пока что не могу решить — стоит ли регистрировать отдельное доменное имя, если визитка empenoso.github.io и так находится на верхних строчках поиска?
Вместо заключения
- Возможно, эта статья заставит кого-то задуматься о том, как он выглядит в интернете.
- Возможно, эта статья поможет кому-то наладить учёт и организацию публикаций.
- Исходный код скрипта расположен на GitHub.
Автор: Михаил Шардин
17 августа 2020 г.
===========
Источник:
habr.com
===========
Похожие новости:
- [JavaScript] Коротко о this в функциях javascript
- [*nix, Node.JS, Веб-аналитика, Хостинг] Мониторинг доступности сайта с информированием в Twitter на Node-RED
- [Разработка веб-сайтов, JavaScript] Веб-компоненты в реальном мире (часть 2)
- [JavaScript] LINQ на JavaScript для самых маленьких
- [Разработка веб-сайтов, JavaScript, Программирование, Node.JS] Краткое руководство по Node.js для начинающих (SPA, PWA, mobile-first)
- [Поисковая оптимизация, IT-компании] Google ввела в поисковую выдачу информацию о доступности путешествий в связи с коронавирусом
- [Законодательство в IT, Копирайт, IT-компании] Суд отклонил иск Genius, которая обвинила Google в присвоении транскрипций текстов песен
- [Аналитика мобильных приложений] Аналитика в мобильном приложении
- [Разработка веб-сайтов, JavaScript, Java, VueJS] Знакомство с Vuecket
- [JavaScript, Node.JS, ReactJS, VueJS] Что, черт возьми, такое гидратация и регидратация? (перевод)
Теги для поиска: #_javascript, #_node.js, #_google_api, #_kontentmarketing (Контент-маркетинг), #_google, #_javascript, #_node.js, #_google_api, #_kontentmarketing (
Контент-маркетинг
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 15:58
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Не так давно я познакомился с описанием E-A-T алгоритма от Google, который расшифровывается как «Expertise, Authoritativeness, Trustworthiness» (экспертность, авторитетность, достоверность). И мне, как автору, который пишет для разных сайтов стало интересно — насколько я сам соответствую критериям этого алгоритма и могу ли повлиять на текущую ситуацию. Тем более, что некоторые заготовки в виде открытой гугл таблицы для учета и мониторинга собственных публикаций LynxReport уже были. Google Таблицы → Node.js → Google Charts → Сайт-визитка → Топ-3 место в поиске ФИО + специализация На основании данных таблицы я решил дополнить сайт-визитку, сведениями о публикациях, которые бы генерировались автоматически. Что я хотел получить:
Как получилось можно посмотреть здесь. Реализовано на платформе Node.js с использованием Bootstrap, Google Charts и Google Таблицы для хранения исходных данных. Исходные данные о публикациях в Google Spreadsheet Гугл-таблица LynxReport: учёт публикаций содержит все исходные данные и аналитику по публикациям. Я поддерживаю актуальность сведений на вкладке «Данные», вручную вписывая новые ссылки на статьи, остальное скачивается по большей части автоматически. Часть таблицы LynxReport: учёт публикаций с исходными данными Актуальные данные по просмотрам и комментариям подгружаются через формулы. Например, чтобы получить количество просмотров со страниц Хабра в ячейке гугл таблиц используется формула: =IF(
ISNUMBER(IMPORTXML(D6, "//*[@class='post-stats__views-count']")) , SUBSTITUTE( IMPORTXML(D6, "//*[@class='post-stats__views-count']") ,",",".") , value(SUBSTITUTE(SUBSTITUTE( IMPORTXML(D6, "//*[@class='post-stats__views-count']") ,"k","") ,",","."))*1000 ) Формулы это не самый быстрый вариант и для того, чтобы получить несколько сотен позиций приходится ждать около получаса. После окончания загрузки можно видеть все цифры как на скриншоте ниже. Они дают ответы какие темы популярны, а какие нет. Часть таблицы LynxReport: учёт публикаций с аналитикой Считывание данных из Таблицы и преобразование в формат Google Charts Чтобы трансформировать эти сводные данные из гугл таблицы в сайт-визитку мне надо было преобразовать данные в формат временной шкалы Google Charts. Получившаяся временная шкала Google Charts на сайте-визитке Для того, чтобы корректно отрисовать такой график данные должны быть организованы следующим образом: Данные для Google Charts на сайте-визитке в html виде Чтобы выполнять все преобразования автоматически я написал под Node.js скрипт, который доступен на GitHub. Если вы не знакомы с Node.js, то в своей предыдущей статье я подробно расписал как можно воспользоваться скриптом под разными системами:
Ссылка с инструкциями здесь. Принцип аналогичен. Работа скрипта по преобразованию в нужный формат данных и генерации pdf версий статей с сайтов (все строки обрабатываются мгновенно — я специально поставил задержку, чтобы записать это видео) Для того считывать данные из гугл таблицы в автоматическом режиме я пользуюсьавторизацией по ключу. Получить этот ключ можно в консоли управления проектами гугла: Учетные данные в Google Cloud Platform После завершения работы скрипта должны сгенерироваться два текстовых файла с html данными графиков и все pdf копии онлайн статей. Данные из текстовых файлов я импортирую в html код сайта-визитки. Генерация pdf копий статей с сайтов При помощи Puppeteerсохраняю текущий вид статей вместе со всеми комментариями в pdf виде. Если не ставить задержку, то несколько десятков статей по списку можно сохранить в виде pdf файлов всего за несколько минут. А задержка нужна для того чтобы на некоторых сайтах (например на Т—Ж) успели подгрузиться комментарии. Результаты Поскольку написание скрипта затевалось с целью большего соответствия поисковым алгоритмам, то оценить результаты можно воспользовавшись поиском. Поиск по имени и фамилии + указание специализации в обоих случаях возвращает ссылки на мои статьи и даже сайт-визитку: В выдаче Яндекса: В выдаче Гугла: Пока что не могу решить — стоит ли регистрировать отдельное доменное имя, если визитка empenoso.github.io и так находится на верхних строчках поиска? Вместо заключения
Автор: Михаил Шардин 17 августа 2020 г. =========== Источник: habr.com =========== Похожие новости:
Контент-маркетинг ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 15:58
Часовой пояс: UTC + 5