Коротко по тексту ниже: API дает вам кучу необходимых инструментов и возможность прокачивать эффективно ваши профиля, каждый клик с подобного профиля будет давать вам результат кратно выше чем без использования API.
В первую очередь это очень важно для таких тематик где есть деньги и конкуренция.
Также после меня появились другие подобные решения, но у них серьезные проблемки с качеством, но для новичков или небольших сайтов вы можете использовать другие решения.
Для классической работы раньше люди собирали ссылки с интернета и просто гуляли по
сайтам софтом и потом кликали на сайт. Где-то в феврале 2022 года данная схема перестала
работать. (я не беру в расчет сайты где если быть в топ1 у тебя будет 10 кликов в день, речь
идет о более менее нормальных ключах откуда идет живой трафик и где есть деньги)
Во первых каждому боту нужно посетить не малое количество сайтов для того чтоб его
конечный клик был эффективен, во вторых боту не нужно ходить где попало.
По подсчетам если качать по классической схеме без API то нам нужно в разы больше
времени чтоб эффективно прокачать бота и нет гарантий что он действительно прокачался (на момент 2024го, я не уверен что вообще возможно).
API не просто выдает нужные ссылки вашим ботам, но он ещё и понимает какие конкретно
ссылки нужно ему давать.
К примеру вы хотите продвинуть сайт где аудитория 95%
мужчины с помощью простых настроек вы сможете сделать всех ботов мужчинами с
индивидуальными интересами которые совпадают с реальными пользователями.
Если у вашего профиля не определяется пол/возраст/долгосрочные интересы то толк от этого
профиля абсолютно никакой.
С помощью API вы сможете 100% для каждого профиля получить эти результаты.
О самом процессе создания API и алгоритмах работы вы можете почитать на
канале. Там не
один пост и не один год работы.
Что также очень не мало важно это эффективность, бота нужно качать 10+ дней и чем
больше или быстрей вы их будете прокачивать тем меньше затрат у вас выйдет на
оборудование, лицензии софта, прокси и.т.д Между классической прокачкой и API разница в
эффективности и производительности в разы. API 24/7 проверяется на
битые ссылки, просроченные домены, метрику, трафик, антибот системы и.т.д
Текущий метод прокачки ботов в API (на март 2024го почти не актуально)
С первый половины марта 2023, Яндекс сломал все и закрутил гайки недели 3-4 ушло только на понимание
того что он вообще накрутил или поломал.
Старая схема с ДИ (Долгосрочные интересы) теперь тупо не актуальна, они видимо вдохновившись моим каналом подкрутили
некоторые вещи и получить траст профиля стало гораздо сложней.
Если раньше я получал ДИ за 12 дней то теперь 30+. Я накатил первое обновление алгоритма, через 2
недели понял что путь не верный.
В итоге я пошел очень сложным путем, который нельзя технически пофиксить.
Что если собирать реальные метаданные пользователей и на основе них качать уникальных ботов.
Но у этого было несколько фундаментальных проблем.
- Качество базы ссылок
- Урлы этих сайтов
- Определение трафика отдельных урлов сайтов
- Определение тематики сайтов
- Определение точного трафика сайтов
- Реализация переделки алгоритмов выдачи, чтоб это работало быстро и не складывало сервер.
(Сейчас это до 4500рпс в секунду, 1 запрос это 6 запросов в БД)
В общем написав пару десятков парсеров, за 3-4 недели я пересобрал базу.
Самое сложное было это определение тематики сайтов, теперь на один сайт может быть сразу
несколько Категорий ДИ, раньше 1 сайт = 1 тематика что не верно.
Точность теперь очень высокая.
Что-то прочекал через сервис, где сервис не смог - смогла нейросеть, где нейросеть не смогла - смог
человек. В итоге пришлось ещё городить свои категории. (У яндекса их всего ~250шт)
Упор на количество сайтов не лучшая идея, теперь и не актуальная. Сайтов в базе теперь стало в 3
раза меньше, а качество выросло в множество раз.
Качество было отдано не только доменам, но и страницам сайта. Уже сейчас видно что прокачка
пошла быстрей.
Такие данные нельзя получить с API megaindex да и многих других, они показывают очень не точные
данные.
Какие критерии и процессы парсинга я описывать не буду. Но собрать это было сложно и очень не
дешево по деньгам, также в базе появились новые домены.
В итоге мы имеем
Указываем возраст и пол профилю - профилю выдаются страницы которые посещают сотни живых
людей ежедневно. Страницы выводятся на основе метаданных живых людей и их предпочтения
тематикам.
Один пресет настроек ДИ весит под 60-80кб json файлом.(очень большой массив).
На этот раз по API больше делать особо нечего, фундаментально Яндексу этот алгоритм
отфильтровать почти невозможно, будут уже бить по другим местам.
Выхлоп от всего этого покажут тесты, он он 100% будет.
ДИ (Долгосрочные интересы) - это не панацея, это только маркер который отлично показывает
эффективность вашего ПФ.