4 способа быстро собрать теги для сайта

Россия+7 (495) 960-65-87
Шрифт:
12 28824

Тегирование сайта — процесс создания страниц для группировки материалов/товаров по схожим признакам.

Этот метод подходит для таких типов сайтов, как:

  • интернет-магазины,
  •  доски объявлений,
  • информационные сайты с большим количеством статей,
  • порталы.

Целями создания тегов являются:

  • увеличение трафика путем создания дополнительных страниц (точек входа);
  • улучшение навигации;
  • рост конверсии и удовлетворенности пользователя.

В данной статье мы рассмотрим способы, как можно быстро собрать теги для сайта.

Как быстро собрать теги

1. Собрать список сайтов для сбора тегов.

2. Получить теги с выбранного списка сайтов.

3. Подготовить файл с названием тега, URL страницы, h1, title, description, хлебными крошками.

Как найти сайты для сбора тегов

1. Выдача поисковых систем по основному запросу

Вводим в поисковую систему (Яндекс, Google) основной запрос, изучаем сайты на предмет тегов.

Пример основного запроса — «платья».

В некоторых случаях присутствуют карты сайта, где имеются ссылки на страницы всех тегов, имеет смысл их поискать. Эти же сайты в дальнейшем можно использовать для поиска тегов и для других запросов.

2. Выдача поисковых систем по запросу для страницы тега

Вводим в поисковую систему (Яндекс, Google) запрос для страницы тега, изучаем сайты на предмет тегов.

Пример запроса для страницы тега — «платья с длинным рукавом».

3. Сервисы

Можно использовать сервисы, где видно конкурентов со схожими ключами.

Например — keys.so.

В качестве примера приведу список сайтов-конкурентов для интернет-магазина по продаже одежды. Параметры похожести и тематичности подбираются в зависимости от проекта.

В данном примере:

  • Мы оставляем сайты с тематичностью от 30 %. Тематичность — сколько процентов наших ключей имеется на сайте конкурента.
  • Фильтрацию по похожести не производим, так как наш сайт находится на начальной стадии развития, а конкуренты, продающие одежду, имеют очень большое количество запросов в топе. Похожесть — процент общих ключей от всех ключей сайта конкурента.
  • Проходимся по сайтам и убираем те, которые нам не подходят.

01-keys-so.png

Выгрузка по фильтрам из сервиса keys.so

Как получить теги с выбранного списка сайтов

Для сбора большего количества тегов во всех способах рекомендуется использовать как минимум несколько сайтов. Есть разные варианты, как можно получить теги с определенного сайта.

1. Скопировать вручную

Заходим на сайты конкурентов и вручную копируем названия.

Я рассмотрю тему на примере небольшого количества запросов, чтобы было проще воспринимать информацию, при этом максимально усложню задачу, добавив основные сложности, с которыми можно столкнуться. 

Создаем Excel-файл, «столбик А» называем «Название». Копируем туда теги с разных сайтов.

02-nazvanie-s- dublyami.png

Теги с разных сайтов

Далее удаляем явные дубли (на молнии = на молнии), понимая, что у нас еще останутся неявные дубли.

03-nazvanie-bez-polnih-dublei.png

Теги без явных дублей

Заполняем названия остальных столбиков:

B — URL

C — h1

D — description

E — Ч

F — Ч “”

G — Путь

04-stolbiki-v-tablice.png

Заголовки таблицы

В итоге получаем поля:

Название — название тега, которое будет показываться на странице, где на него будет стоять ссылка. Например, на странице «Платья» выводятся ссылки на теги.

05-vivod-tegov.png

Вывод тегов на сайте

URL — URL тега

h1 — h1, он же заголовок страницы

description — поле, данные из которого будут использоваться для генерации метатега description

Ч — общая частотность по Вордстату (запрос)

«Ч» — частотность данной фразы с учетом всех морфологических форм («запрос»)

Путь — расположение тега на сайте = хлебные крошки

Заполняем по порядку.

h1 — к значению в поле «Название» добавляем слово «платья».

06-h1.png

Таблица со значениями h1

В данном случае для генерации title используется значение из поля h1, поэтому он не представлен в таблице.

description — используем данные из столбика h1 и делаем первую букву маленькой. Для этого используем функцию «СТРОЧН» в Excel.

07-h1-description.png

Таблица со значениями h1 и description

С использованием значений из этого поля пишем генератор description.

Запросы из столбика description добавляем в Key Collector. Отмечаем неявные дубли.

Вручную удаляем неявные дубли из нашей таблицы. Обычно неявные дубли встречаются в небольших количествах, поэтому это несложно сделать.

В итоге остается:

08-description.png

Столбик description

URL — генерируем, используя функцию URL от Seo-Excel из поля description.

09-url-seo-excel.png

Поля для ввода данных при генерации URL в SEO-Excel

Получаем:

10-url.png

Сгенерированные URL

Ч и «Ч» — снимаем частотность любым удобным инструментом или сервисом.

Ч — используем для удаления запросов, не имеющих частотности. Для сезонных запросов можно дополнительно снимать частотность по месяцам.

«Ч»используем для понимания, не является ли данный запрос составляющей другого запроса (возможно такого запроса не существует).

Путь — для данного проекта теги лежат внутри основного раздела.

Добавляем «Главная — Платья — » и потом то, что идет в h1.

В случае с вложенными тегами (когда один тег вложен в другой) путь может меняться.

Например, для запроса «Короткие вечерние платья» путь будет «Главная — Платья — Вечерние платья — Короткие вечерние платья».

11-tablica.png

Таблица с заполненным столбиком «Путь»

Там же в зависимости от выбранного метода вывода ссылок может меняться название:

  • если оно выводится на странице всех платьев, оно может иметь название «короткие вечерние»;
  • если на странице вечерних платьев, то «короткие».

С примером, разобранным в задаче, можно ознакомиться в Google Docs.

Плюсы:

  • просто;
  • не требуются дополнительные программы;
  • хорошо подходит для сайтов с нестандартной URL-структурой.

Минусы:

  • больше ручной работы.

2. Парсинг программой Screaming Frog SEO Spider

Для выполнения данного пункта потребуется программа Screaming Frog SEO Spider (платная).

Настройка

Рассмотрим пример парсинга тегов со страницы Платья на сайте www.wildberries.ru.

Для начала в программе нам нужно заполнить две настройки.

Configuration — Include (Правила включения)

Сюда мы добавим URL, с которых начинаются теги. Эти теги будет добавлять программа.

Все теги на странице платьев начинаются с такого URL: https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/

Добавляем таким образом:

https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/.*

12-frog-include.png

Окно для ввода параметров в «Правила включения» в Screaming Frog SEO Spider

Configuration — Exclude (Правила исключения)

Наша задача состоит в том, чтобы исключить страницы пагинации, сортировки и страницы такого типа, которые по смыслу дублируют основную страницу. Такие страницы не несут смысла для нашей задачи.

Исключаем по элементам, которые содержатся в URL: .*%элемент в URL%.*

У меня получилось так:

.*page-.*

.*page=.*

.*pagesize=.*

13-frog-exclude.png

Окно для ввода параметров в «Правила исключения» в Screaming Frog SEO Spider

Со временем соберется большой список таких параметров, и это упростит работу.

Парсинг

Вбиваем URL основной страницы и нажимаем «Start»: https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya

14-frog-url.png

Окно ввода URL в Screaming Frog SEO Spider

Получаем список из 313 страниц тегов по Платьям с названиями.

15-frog-result.png

Значения вкладки «h1» в Screaming Frog SEO Spider

Дальше уже можем работать с тегами h1.

16-frog-h1.png

Значения столбика H1-1 вкладки «h1» в Screaming Frog SEO Spider

С примером полученного результата можно ознакомиться в Google Docs.

Скорость ответа сервера у большинства сайтов с тегами быстрая. Поэтому скорость парсинга будет зависеть от:

  • настроек программы,
  • мощности компьютера,
  • наличия защиты от DDoS на сайтах.

Плюсы:

  • программный сбор информации.

Минусы:

  • нужна платная программа Screaming Frog SEO Spider;
  • требуется настройка параметров исключения для страниц, дублирующих основную (пагинация, фильтры, сортировки);
  • не у всех сайтов удобная URL-структура для парсинга тегов.

3. Парсинг из поисковой системы

Сбор страниц, начинающихся с определенного URL, из выдачи поисковой системы.

Для просмотра страниц нужно задать запрос вида:

url:%URL с которого начинаются страницы тегов%*

Например, чтобы посмотреть теги со страницы Платья на сайте www.wildberries.ru, нужно задать запрос вида:

url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/*

Ограничение Яндекса — не более 1000 результатов, поэтому если в выдаче более 1000 результатов, то парсим, каким-либо образом ограничивая количество результатов, например, побуквенно.

Если бы у нас было более 1000 результатов, мы собирали таким образом:

url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/a*

url:https://www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/b*

Парсить выдачу можно через Key Collector.

Для совсем небольших сайтов при парсинге по буквам или по каким-то небольшим кластерам можно использовать выгрузку ТОП-100 сайтов по запросу в ПС Yandex от сайта Arsenkin.ru (быстро и бесплатно). Далее для этих страниц парсим h1 через SeoPult.

Плюсы:

  • программный сбор информации

Минусы:

  • не все страницы, которые есть на сайте, могут быть проиндексированы;
  • для некоторых сайтов требуется удалить страницы, дублирующие основную (пагинация, фильтры, сортировки);
  • не у всех сайтов удобная URL-структура для парсинга тегов.

4. Парсинг по элементу URL в keys.so

Сбор страниц с определенным URL в сервисе keys.so.

1. Делаем отчет по сайту.

2. Смотрим отчет, где показываются все страницы сайта.

3. Фильтруем по полю «Адрес содержит», вбивая нужный элемент URL, чтобы показывались только теги.

Фильтр в примере:

/catalog/zhenshchinam/odezhda/platya/tags

17-keys-so-filter.png

Поле для задания фильтров в сервисе keys.so

18-keys-so-result.png

Список отфильтрованных страниц в сервисе keys.so

Далее для этих страниц парсим h1 через SeoPult.

Плюсы:

  • сбор информации через сервис;
  • обычно отсутствуют страницы, дублирующие основную (пагинация, фильтры, сортировки).

Минусы:

  • нужен доступ в Keys.so (платный);
  • сервис показывает не все страницы, которые есть на сайте, а только те, где есть хотя бы 1 ключевое слово в ТОП 50;
  • не у всех сайтов удобная URL-структура для парсинга тегов.

Вывод

Мы рассмотрели 4 способа быстрого сбора тегов для сайта. Эти способы позволяют сэкономить время на сборе и создании страниц тегов, сделав это быстрее, чем занимаясь ручной разгруппировкой семантического ядра. У каждого метода свои плюсы и минусы. Выбор способа зависит от задачи и имеющегося набора инструментов и сервисов.

Если есть какие-то вопросы или предложения, как можно сделать лучше, предлагаю обсудить в комментариях.

Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Екатерина
    2
    комментария
    0
    читателей
    Екатерина
    6 месяцев назад
    Очень полезная статья.
    Можете подсказать как именно парсить результаты выдачи по заданному URLe через Кей Коллектор?
    Я обыскалась и так и не нашла нормальный парсер (((
    -
    0
    +
    Ответить
    • Рустем Низамутинов
      8
      комментариев
      0
      читателей
      Расписал и закинул в Google Docs, а то здесь в комментариях ссылки на активны.

      docs.google.com/document/d/1r0TZLNrQyYLdIzDQsD5YKlMG41HUGQgEep3bxE_ij-M/edit?usp=sharing
      -
      0
      +
      Ответить
  • Екатерина
    2
    комментария
    0
    читателей
    Екатерина
    6 месяцев назад
    Аболденная статья! Очень пригодилась.
    Правда одна сложность - я обыскалась парсер, который может спарсить поисковую выдачу..
    Подскажите, как именно парсить выдачу по заданному URLу через Кей Коллектор, как в варианте № 3&
    -
    0
    +
    Ответить
    • Рустем Низамутинов
      8
      комментариев
      0
      читателей
      1. Заходите в настройки Key Collector - drive.google.com/open?id=1sOPMrsVwoWJKNVWIHnubceTshte6fgPY

      2. Заходите «Парсинг» - «Поисковая выдача»

      2.1. Ставите галочку «Использовать Yandex.XML».
      Вставляете полученный в панели адрес авторизации.
      drive.google.com/open?id=16q6rWPZTORXgobRdyoFcTDe2WbH-76bU

      Для того, чтобы его получить заходите на xml.yandex.ru/settings/ (нужно быть зарегистрированным в Яндексе).

      Вставляете свой IP...
      1. Заходите в настройки Key Collector - drive.google.com/open?id=1sOPMrsVwoWJKNVWIHnubceTshte6fgPY

      2. Заходите «Парсинг» - «Поисковая выдача»

      2.1. Ставите галочку «Использовать Yandex.XML».
      Вставляете полученный в панели адрес авторизации.
      drive.google.com/open?id=16q6rWPZTORXgobRdyoFcTDe2WbH-76bU

      Для того, чтобы его получить заходите на xml.yandex.ru/settings/ (нужно быть зарегистрированным в Яндексе).

      Вставляете свой IP адрес.
      Тип поиска выбираете «Мировой» (это позволяет увеличить количество лимитов).
      Нажимаете «Сохранить».
      Копируете URL для запросов в Key Collector.
      drive.google.com/open?id=1OoyCAhfUkPffTOgyckIGJi9-hfPaS9HX

      Парсить выдачу с использованием Yandex.XML удобнее и быстрее (нет капчи и т.п.).

      2.2. «Количество запрашиваемых результатов» ставите «50».
      «Не просматрвать глубже» ставите «1000» позиции.
      (Яндекс не показывает более 1000 результатов, но обычно этого хватает для работы с тегами).

      drive.google.com/open?id=1FKShNpoRfr-HLV-j1qK2l9KebzmMdA5h

      3. Заходите «KEI & SERP»

      Ставите настройки как на скриншоте
      drive.google.com/open?id=1_bGVcLPulAeTRxJ8KniMh9N6Qa19nzgV

      4. Переходим непосредственно к парсингу.

      В качестве примера возьмем пример из статьи.

      Мы хотим спрасить URL по запросу
      url:www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/*

      В Key Collector нажимаем «Добавить фразы»
      drive.google.com/open?id=12L2pQX2sApFT7qWPfzj_kKiTZQyRj3er

      Туда вставляем
      url:www.wildberries.ru/catalog/zhenshchinam/odezhda/platya/tags/*

      Получается так
      drive.google.com/open?id=1_uZuoRX6azHry0Q5pVQ2YnHzLqC1JF0y

      Нажимаем «Добавить в таблицу» и получается так
      drive.google.com/open?id=1u-_YwZa9TiHVAms7h093l2cOjN9y-IZN

      Нажимаете на кнопку «Вычисление KEI»
      drive.google.com/open?id=1EgJyWcSt0Turohwh8TzqqNr4NHmlYKVQ

      Выбираете «Получить данные для ПС Яндекс»
      drive.google.com/open?id=1s8X19ShmPTzOYRf_m93OfkAWnNM8Sbsw

      Ждете пока данные будут получены (обычно это происходит очень быстро).

      Как данные будут получены нажимаете на кнопку «Вычисление KEI» и выбираете «Экспортировать данные о поисковой выдаче».
      drive.google.com/open?id=1levexrrA_9fapyijibfAnZYTcqdiW164

      Получается такой результат
      drive.google.com/open?id=1TPnPF3CmYcUWVRI8hxT7pWyNQejeaQc3pdyLOVqIxGs
      -
      0
      +
      Ответить
  • Анна Павлюк
    1
    комментарий
    0
    читателей
    Анна Павлюк
    6 месяцев назад
    Спасибо за статью. А что, если парсить нечего – нет пока в нише конкурентов с готовыми тегами?
    -
    0
    +
    Ответить
    • Рустем Низамутинов
      8
      комментариев
      0
      читателей
      Поддержу комментарий Павла.

      Еще стоит учесть, что теги бывают не всегда видны визуально, то есть в коде могут быть ссылки на теги, а на самом сайте визуально они скрыты. Такое встречается не так часто, но встречается.

      В зависимости от наличия тех или иных инструментов:

      - если есть Screaming Frog, то можно начать парсить страницу на которой могут теги и по факту смотреть, есть ли там теги, в зависимости от настроек программы, обычно хватает 15-20 секунд, ...
      Поддержу комментарий Павла.

      Еще стоит учесть, что теги бывают не всегда видны визуально, то есть в коде могут быть ссылки на теги, а на самом сайте визуально они скрыты. Такое встречается не так часто, но встречается.

      В зависимости от наличия тех или иных инструментов:

      - если есть Screaming Frog, то можно начать парсить страницу на которой могут теги и по факту смотреть, есть ли там теги, в зависимости от настроек программы, обычно хватает 15-20 секунд, чтобы понять это;

      - если нету Screaming Frog, то можно сделать поиск по сайту в Яндексе и Google, с предполагаемым названием тега.
      -
      0
      +
      Ответить
    • Павел
      2
      комментария
      0
      читателей
      Павел
      Анна Павлюк
      6 месяцев назад
      Анна, тут только парсить вордстат+подсказки, а дальше уже руками разбивать по логическим группам. Хорошо в этом поможет seo-excel
      -
      0
      +
      Ответить
  • Павел
    2
    комментария
    0
    читателей
    Павел
    6 месяцев назад
    Если есть сайт/группа сайтов с хорошей структурой как в примере, то есть более простой и бесплатный способ взять теги - открыть sitemap.xml и отфильтровать значения по нужному урлу. В случае с нормальными сайтами и сеошниками, шанс что в сайтмэпе нет тегов, нулевой:)
    -
    1
    +
    Ответить
  • Сергей Дембицкий «Sima-Land.ru»
    22
    комментария
    0
    читателей
    Круто парсить теги конкурентов, но где взять столько товаров, как у Wildberries? Или вы предлагаете просто их создать, чтобы трафик гнать. Зачем все эти страницы, если под них нет товара? Не проще ли создавать страницы тегов исходя из собственного ассортимента и его свойств?
    -
    1
    +
    Ответить
    • Павел Шестаков
      1
      комментарий
      0
      читателей
      Вот кстати да. Согласен. Да и работа с существующими товарами будет муторной, разве нет? Как вот существующие 15К товаров разнести по этим тегам? Писать скрипт специально? Думаю, что тут только руки сработают)
      -
      0
      +
      Ответить
    • Рустем Низамутинов
      8
      комментариев
      0
      читателей
      1. Вы все верно отметили - не стоит создавать страницы для которых нету товаров.

      Не описал этот момент в статье. После сбора тегов, удаления дублей и запросов без частотности, отправляем их на утверждение клиенту, клиент утверждает те теги под которые у него есть подходящие товары на сайте и мы работаем именно с ними.

      При этом я сразу, до того как отправить клиенту на утверждение, заполняю и остальные поля - так как это делается быстро и позволяет потом не возвращат...
      1. Вы все верно отметили - не стоит создавать страницы для которых нету товаров.

      Не описал этот момент в статье. После сбора тегов, удаления дублей и запросов без частотности, отправляем их на утверждение клиенту, клиент утверждает те теги под которые у него есть подходящие товары на сайте и мы работаем именно с ними.

      При этом я сразу, до того как отправить клиенту на утверждение, заполняю и остальные поля - так как это делается быстро и позволяет потом не возвращаться к этому. А когда отправляю клиенту - просто скрываю эти поля, чтобы они ему не мешали.

      2. Создавать страницы из свойств своих товаров тоже хороший вариант, но обычно он не охватывает все возможные страницы, под которые есть товары и которые можно создать.
      -
      0
      +
      Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Тест: Кто как пробежал, или Итоги клиентского рейтинга SEOnews 2018
Анна Макарова
335
комментариев
0
читателей
Полный профиль
Анна Макарова - Друзья, спасибо всем за участие! Мы определили победителей. Кто ими стал - вы найдете по ссылке: www.seonews.ru/events/darim-knigi-ot-mif-pobediteli-opredeleny/ Если вы стали одним из победителей, обязательно свяжитесь с нами по указанной в новости (по ссылке выше) почте. Всем хороших выходных! =)
32 инструмента в помощь SEO-специалисту
luthorscorploanfirm
2
комментария
0
читателей
Полный профиль
luthorscorploanfirm - Я - г-н Марк Джо из корпорации corp, мы являемся законной, зарегистрированной и гарантированной кредитной компанией, мы предоставляем 3% -ые кредиты частным лицам, компаниям, государственным учреждениям и деловым организациям и людям всех родов. Свободные кредиты - это решение всех ваших финансовых проблем. свяжитесь с нами по электронной почте: mjoe0123@gmail.com
SEO глазами клиентов 2018
Гость
1
комментарий
0
читателей
Полный профиль
Гость - То есть *** пойми кто подался заявками и в итоге рейтинг должен называться seo глазами клиентов *** пойми каких компаний. Молодцы!
Комплексный аудит интернет-магазина от «Ашманов и партнеры». Часть 1
Александр Сова
1
комментарий
0
читателей
Полный профиль
Александр Сова - А вот и сеошники подъехали, покидать на вентилятор :D
Не очень удачный кейс продвижения сайта по услуге «Трезвый водитель» в Москве
Кирилл Щербаков
3
комментария
0
читателей
Полный профиль
Кирилл Щербаков - "даже пришлось подключить отслеживание звонков с сайта" "Даже" - как будто это что-то нереальное
Два идеальных способа разориться на старте интернет-магазина
Стас
4
комментария
0
читателей
Полный профиль
Стас - Seonews в последнее время такую чушь несет! Где вы таких афторов находите? Статья ничего не стоит и несет чушь! Кто хоть немного понимает в этом так вам и скажет, и такие де комментаторы горе-сеошники, просто смешно читать, вы хоть модерируете ваши статьи или просто для воды на сайте?! Бред сивой кобылы эта статья до самой последней точки!!!
Эксперимент: как уникальность контента влияет на продвижение сайта
Ilia Nazmutdinov
2
комментария
0
читателей
Полный профиль
Ilia Nazmutdinov - Кстати, ПФ не работают на нулевом трафике. Пока на сайт не льются тысячи показов по одним и тем же запросам влияние оказывает ток ссылочное\внешнее и внутреннее\ и внутренняя оптимизация.
Яндекс перестал индексировать сайты, созданные на Wix
Константин Даткунас
3
комментария
0
читателей
Полный профиль
Константин Даткунас - Было бы интересно посмотреть саму выборку из 10 000 и методику анализа.
Расчет трафика из поисковых систем по брендовым и небрендовым запросам
Дарья Калинская
238
комментариев
0
читателей
Полный профиль
Дарья Калинская - А вот и статья :) www.seonews.ru/analytics/raschet-trafika-po-nebrendovym-zaprosam-pri-pomoshchi-r/
Как мы разработали и вывели в ТОП сайт курсов рисования
Иван Стороженко
25
комментариев
0
читателей
Полный профиль
Иван Стороженко - Добрый день. 1)Чаще всего основная проблема заключается, в согласовании с клиентом добавляемого контента и то как он будет отображаться. На данном сайте фото и услуги конечно предоставлял клиент, все остальное уже делали мы. 2)Да в принципе, когда есть команда и понимание, что нужно делать, все идет быстро (опять же основная заминка идет на согласовании с клиентом) 3)Смысла делать новый в данном случает нет. В принципе доделывался полноценный сайт. 4)Когда клиент уже не предоставляет информацию, приходится искать у конкурентов (например с других стран или регионов). Но чаще всего клиент, хоть что-то "подкидывает".
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
335
Комментариев
262
Комментариев
238
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
97
Комментариев
97
Комментариев
95
Комментариев
87
Комментариев
80
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
57
Комментариев
55
Комментариев
54

Отправьте отзыв!
Отправьте отзыв!