Nedocs.ru

Онлайн платформа для образования
1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Big data в маркетинге

Big data для маркетинга

Позавчера в новостной ленте 3 поста про Big Data. Вчера, коллега прислал заметку про тоже самое. Сегодня позвонили из «Билайна» и пригласили на бизнес-завтрак по Big Data. Не пошел! Я с готовностью и с открытым разумом «за» современные цифровые технологии. Я против профанации экспертности и несущих ее высокообразованных профанов.

Несколько слов адептам «больших данных», совершенно понятных маркетологам.

Что такое Big Data?

Пару слов тем, кто не совсем знаком с этим термином. Big data – это собственно большой проток плохо структурированных и не связанных друг с другом данных, полученных из несвязанных источников; их анализ и построение моделей прогнозирования события на их основе. Термин этот появился сравнительно недавно. Google Trends показывает начало активного роста употребления словосочетания начиная с 2011 года.

Как бы сказать проще? Big Data – это такие данные:

  • которые невозможно обрабатывать в Excel
  • взаимосвязь между которыми не видит человек
  • к тем, что еще вчера не успели обработать,– это еще и постоянно поступающие новые данные за новый период.

Откуда эти данные?

Ежесекундно гигантские мегатонны контента генерируют события в мире, новостные порталы, бренды, их торговые и информационные посредники. В каждом магазине на входе стоит датчик, который фиксирует появление в торговом зале нового посетителя. Платежные онлайн-системы фиксируют транзакции, банки – движение наличных и безналичных денег, магазины считают чеки и анализируют их суммы. Поисковые системы фиксируют количество и частоту интернет-запросов. Социальные сети видят количество упоминаний тех или иных марок, по сопутствующему окружению, понимают характер и причину упоминания, настроение и отношение.

Ну что, маркетологи, у вас еще не загорелись глаза, руки от предвкушения «знать все» не дрожат? Спокойно! Это не для вас! Чтобы получить, собрать воедино, осмыслить все эти беспорядочные данные, нужно использовать ультрасовременную аналитику с привлечением искусственного интеллекта и чудовищные по объему хранилища этих данных. Если с хранилищами все решаемо, то вот искусственный интеллект нужно еще обучить. Впрочем, о сложности этой задачи ниже, а пока сохраним естественное для маркетолога желание «знать все» о потребителях и пойдем разбираться.

С Big Data есть вполне конкретный подвох.

Мусор на входе – ошибки на выходе

Неполнота данных

Давайте рассмотрим такую, в общем-то тривиальную для маркетинга задачу, как мониторинг (пока еще не прогнозирование) поведения целевой группы. И еще более конкретный предмет наблюдения, как социальное взаимодействие членов этой целевой группы. Зачем это нужно? Одной из целей взаимодействия является уменьшения неопределенностей – получение знаний и снятие сомнения при выборе, в отношении вашего предмета маркетинга. Такое уменьшение неопределенности является следствием совместного участия людей в межиндивидуальных или групповых видах деятельности, например, в ходе общения в соцсетях.

Беда же в том, что сколько бы мы не собирали «большие данные», но это общение не ограничивается только соцсетями. Люди общаются в офлайне: коллеги на работе, случайное общение членов ЦА на отдыхе, совместная выпивка в пабе, случайный разговор в общественном транспорте. Такое взаимодействие будет не подконтрольно наблюдателям за Big Data. По настоящему полнота данных может быть обеспечена только:

  • При тотальном контроле за всеми членами целевой группы. Ибо даже в туалете общественного кинотеатра может произойти такое взаимодействие, не учтенное для последующего анализа!
  • В замкнутой системе. Скажем, подсчитать число пользователей, пользующихся многоразовыми проездными билетами в метро и понять, какая же часть этого множества пользуется еще и наземным общественным транспортном. Но как подсчитать сколько же из не воспользовавшихся использовали такси?

Вторая проблема неполноты данных в том, что процесс такого взаимодействия имеет два аспекта: объективный и субъективный. Объективная сторона – это связи, не зависящие от отдельных личностей или групп, но объективно и содержательно способные быть учтенными в Big Data (например, купля/продажа, передача ии прием единицы информации). Это может быть учтено, подсчитано, обработано и на этом можно построить модель.

Субъективная сторона взаимодействия – это сознательное, нередко эмоционально окрашенное отношение индивидов друг к другу, возникающее в процессе взаимодействия: взаимные ожидания определенного поведения или реакции, личная расположенность к партнеру по взаимодействию, приятность внешнего вида и голоса партнера и тому подобное. Все это влияет, как на само взаимодействие, так и на результат такого взаимодействия. Эти же аспекты очень трудно проследить и проанализировать. Суррогатом, позволяющим хоть как-то проследить субъективный аспект взаимодействия являются лайки, смайлики в соцсетях. По их наличию можно попытаться определить степень вовлеченности, настроение и отношение. Но, черт возьми , как это сделать, если взаимодействующие их не используют? И уж конечно же эмоджи люди не используют на улицах, в магазинах, в транспорте – люди не живут в соцсетх и за их пределами общаются иначе!

Анализировать взаимодействия членов целевой группы только по факту взаимодействия (продажа) или только там, где вы хотите наблюдать такое взаимодействие (магазин), не учитывать субъективное качество взаимодействия – это обрекать себя не непонимания того, продолжится ли такое взаимодействие завтра, будут ли еще покупки в этом магазине – понравилось ли покупать, удовлетворены ли предметом маркетинга или нет.

Обезьяна, граната, а в гранате – Big Data

Зачастую, анализируя что-то маркетинговое с рынка, мы наблюдаем два явления, происходящие совместно, однако никак не связанные между собой: падение числа чеков с нашим товаром и рост цен на товары потребительской корзины. Если такие явления происходят параллельно и довольно длительное время, что в голове маркетингового специалиста может возникнуть мало чем обоснованное предположение о том, что это как-то взаимосвязано. Есть такое понятие «эпифеномен» — это ошибка причинно-следственных связей.

Н. Талеб в «Антихрупкости» говорит: Если птицам читать лекции об теории полета, то они станут летать — вы в это не верите, это же глупо, не так ли? А вот следующий пример: В богатых странах проводится больше научных исследований, поэтому можно предположить, что наука порождает богатство. Это уже более правдоподобно, да? И вполне коррелирует с житейской мудростью — «если ты такой умный, то почему такой бедный?» На самом деле в мире все было наоборот — сначала некоторые страны заполучили богатство, а уж потом стали развивать науки. В бедной стране наука невозможна.
Таргетированная реклама при помощи Big Data — это по прежнему стрельба в темноту, пишет Forbes. Пока нет доказательств, что все эти методики, построенные на анализе cookies, социальных медиа и прочего хитроумного «таргетинга» устойчиво работают. Да и вы сами сто раз с этим сталкивались — когда контекстная реклама бьет мимо, нисколько не отвечая вашим интересам или когда вы уже товару купили, а еще месяц после вам показывают контекстно именно этот товар. Кто-то же в этот момент «палит» на вас деньги!?

Big Data в руках генераторов теорий — это идеальный инструмент для открытия и продвижения эпифеномена, а накопление данных и наблюдение за ними, в отсутствие четких моделей прогнозирования, построенных на анализе реалий, а не гипотез, может породить большое число таких ложных «открытий». Почему не основанные ни на чем гипотезы в науке – благо, а в маркетинге – смерть? Если кто-то из ученых напишет диссертацию и ошибется – не страшно, забыто. Но если эти теории проникнут в маркетинг — из прибыльного получится «monkey business».

Читать еще:  Цена это в маркетинге

Вначале научитесь предсказывать погоду на завтра

Хотите примеры?

Как прогнозировали грипп?

Прогноз победы

Пишите длинные тексты

Ворота МТС

Еще в 2015 году на Форуме «Future of Telecom» руководитель направления Big Data компании «МТС» Виталий Сагинов рассказывал о подходах компании в развитии направления по работе с «большими данными». В своем докладе он отмечал: «в ближайшее время доходы компании от продажи аналитики на данных будут сопоставимы с доходами от меседжинга и SMS». Замечательно, но в мае 2018 года все новостные ленты и ТВ облетела информация о том, что житель Москвы Алексей Надежин клиент этого сотового оператора связи обнаружил, что его ворота, установленные, на въезде в садоводческое товарищество «самостоятельно» подписались на платные SMS-сервисы отвечали на посылаемую им информацию.

В пресс-службе МТС тогда рассказали, что «специалисты провели необходимые работы, чтобы подобный случай не повторился». Означает ли это, что ворота сами что-то набирали в телефоне или подписки были оформлены без согласия абонента, в комментарии компании не уточняется. Вот только на симку, установленную в автоматике ворот приходило множество СМС с коротких номеров, а ворота, оказывается, «сами» им отвечали, отправляя СМС в ответ. Ну и где же результат многолетней работы с «большими данными» для недопущения подобного? Заявлять о умении собирать, анализировать и прогнозировать на Big Data – это еще не означает делать это с адекватным качеством!

А что Procter&Gamble?

Как Сбербанк от искусственного интеллекта пострадал

В феврале 2019 года во время своего выступления на «Уроке цифры» в частной школе в Москве глава Сбербанка Герман Греф, отвечая на вопрос о рисках внедрения технологий, сказал: «Искусственный интеллект, как правило, принимает решение в больших системах. Маленькая ошибка, закравшаяся в алгоритм, может приводить к очень большим последствиям». Отвечая на запрос РБК о сути потерь от внедрения искусственного интеллекта, в пресс-службе Сбербанка уточнили, что «речь идет не о прямых убытках, а скорее о недополученной прибыли». Тем не менее, глава банка высказался о потерях определенно, смысл его заявления в том, что Сбербанк в результате ошибок искусственного интеллекта уже потерял миллиарды рублей.

Big Data в маркетинге — пора расстаться с иллюзиями

Уставшие от хайпа с Big Data

Разумеется, нельзя сказать, что Google Flu Trends совсем не работает, а предсказание на основе Big Data – мошенничество. Просто молоток можно использовать для создания прекрасного, но большинство его используют для починки убогого, а некоторые – и вовсе не во благо. Сейчас, похоже, что сильно увеличившееся давление предсказателей на Big Data, начало маркетологам мешать. Везде! Кроме как, в России – у нас все, даже самые прогрессивные и быстро набирающие обороты тенденции, наблюдаются с запаздыванием лет на пять.

Что до остального мира, то рекламодатели устали от многолетнего хайпа вокруг Big Data. Вообще же, первое, что тогда на Dmexco’2017 бросилось в глаза в первый же день выставки – из выступлений и презентаций практически стал исчезать термин Big Data. Это было заметно, так как последние четыре года этим словосочетанием пользовался каждый второй выступающий. И причина ослабевания «Big Data давления» на бизнес-сообщество и интернет-сообщество понятна:

Что же дальше?

Если до сих пор все мысли IT-специалистов и аналитиков были заняты созданием баз данных, созданием принципов хранения, классификации информации, полученной из разных источников, то теперь, когда подобные хранилища созданы, для многих брендов стала очевидной бессмысленность анализа разных источников, накопления и складирования данных как таковых. Хранение и поверхностный анализ больших объемов информации стоит больших денег и не оправдывает себя, если нет моделей сопоставления данных, если бренд не в состоянии обработать и использовать статистику для повышения эффективности продаж – нет практической ценности.

Результатом переосмысления задачи «получить доступ к данным в маркетинге» стало появление нового термина, который отражает рост спроса на эффективное использование данных. В своих выступлениях на Dmexco’2017, в блогах и на конференциях, докладчики все чаще говорят о технологиях работы с большими данными как части предиктивного или предсказыемого маркетинга (англ. predictive marketing).

Ну это про маркетинг! А что же с предсказанием на Big Data вообще? Однозначно это сработает в естественных науках, там, где есть накопленные данные за многолетний период, где за это же время откатана строгая математическая модель и понимание протекающих естественных процессов. Это реально сработает если анализировать макро-тенденции, происходящие в макромасштабе – тренды общества. Это реально сработатет, если анализировать замкнутые устойчивые системы микромасштаба (деревня, магазин на станции, на которую никогда не приходят поезда со случайными покупателями). Это применимо для оценки поведения в будущем конкретного человека. Но как только появляется взаимное влияние, вновь возникающие тенденции, «черные лебеди» (Насим Талеб) – исследуемая система предстает «черным ящиком».

Что такое Big Data (большие данные) в маркетинге: проблемы, алгоритмы, методы анализа

Большие данные (Big Data) — довольно распространенное понятие в IT и интернет-маркетинге. По сути, определение термина лежит на поверхности: «большие данные» означает управление и анализ очень больших объемов данных. Если смотреть шире, то это информация, которая не поддается обработке классическими способами по причине больших объемов.

Содержание

Big Data — что это такое?

Цифровые технологии присутствуют во всех областях жизни человека. Объем записываемых в мировые хранилища данных ежесекундно растет, а это означает, что такими же темпами должны изменяться условия хранения информации и появляться новые возможности для наращивания ее объема.

Эксперты в области IT высказывают мнение, что расширение Big Data и ускорение темпа роста стало объективной реальностью. Ежесекундно гигантские объемы контента генерируют такие источники, как социальные сети, информационные сайты, файлообменники — и это лишь сотая часть поставщиков.

Согласно исследованию IDC Digital Universe, в ближайшие пять лет объем данных на планете вырастет до 40 зеттабайтов, то есть к 2020 году на каждого живущего на Земле человека будет приходиться по 5200 Гб.

Рост Big Data к 2020 году, прогноз IDC Digital Universe от 2012 года Источник:www.emc.com.

Известно, что основной поток информации генерируют не люди. Источником служат роботы, находящиеся в постоянном взаимодействии друг с другом. Это приборы для мониторинга, сенсоры, системы наблюдения, операционные системы персональных устройств, смартфоны, интеллектуальные системы, датчики и прочее. Все они задают бешеный темп роста объема данных, что приводит к появлению потребности наращивать количество рабочих серверов (и реальных, и виртуальных) — как следствие, расширять и внедрять новые data-центры.

Читать еще:  Специалист по маркетингу на английском

По сути, большие данные — довольно условное и относительное понятие. Самое распространенное его определение — это набор информации, по объему превосходящей жесткий диск одного персонального устройства и не поддающейся обработке классическими инструментами, применяемыми для меньших объемов.

Наглядная иллюстрация роста объемов с 1986 до 2007 годов. Источник: www.martinhilbert.net.

Технология Big Data — что это? Обобщенно говоря, технологию обработки больших данных можно свести к трем основным направлениям, решающим три типа задач:

  • Хранение и перевод поступаемой информации в гигабайты, терабайты и зеттабайты для их хранения, обработки и практического применения.
  • Структурирование разрозненного контента: текстов, фотографий, видео, аудио и всех иных видов данных.
  • Анализ Big Data и внедрение различных способов обработки неструктурированной информации, создание различных аналитических отчетов.

В сущности, применение Big Data подразумевает все направления работы с огромным объемом самой разрозненной информации, постоянно обновляемой и разбросанной по разным источникам. Цель предельна проста — максимальная эффективность работы, внедрение новых продуктов и рост конкурентоспособности.

Проблема Big Data

Проблемы системы Big Data можно свести к трем основным группам: объем, скорость обработки, неструктурированность. Это три V — Volume, Velocity и Variety.

Хранение больших объемов информации требует специальных условий, и это вопрос пространства и возможностей. Скорость связана не только с возможным замедлением и «торможением», вызываемом старыми методами обработок, это еще и вопрос интерактивности: чем быстрее процесс, тем больше отдача, тем продуктивнее результат.

Проблема неоднородности и неструктурированности возникает по причине разрозненности источников, форматов и качества. Чтобы объединить данные и эффективно их обрабатывать, требуется не только работа по приведению их в пригодный для работы вид, но и определенные аналитические инструменты (системы).

Но это еще не все. Существует проблема предела «величины» данных. Ее трудно установить, а значит трудно предугадать, какие технологии и сколько финансовых вливаний потребуется для дальнейших разработок. Однако для конкретных объемов данных (терабайт, к примеру) уже применяются действующие инструменты обработки, которые к тому же и активно развиваются.

Существует проблема, связанная с отсутствием четких принципов работы с таким объемом данных. Неоднородность потоков только усугубляет ситуацию. Каким образом подходить к их применимости, чтобы вынести из них что-то ценное? Здесь требуется разработка такого направления, как новые методы анализа Big Data, чтобы этот поток стал полезным источником информации. Возможно, согласно утверждениям представителей университетов США (Нью-Йоркского, Вашингтонского и Калифорнийского), сегодня пришло время ввести и развивать новую дисциплину — науку о Big Data.

Собственно, это и является главной причиной отсрочки внедрения в компании проектов Big Data (если не брать во внимание еще один фактор — довольно высокую стоимость).

Подбор данных для обработки и алгоритм анализа может стать не меньшей проблемой, так как отсутствует понимание, какие данные следует собирать и хранить, а какие можно игнорировать. Становится очевидной еще одна «болевая точка» отрасли — нехватка профессиональных специалистов, которым можно было бы доверить глубинный анализ, создание отчетов для решения бизнес-задач и как следствие извлечение прибыли (возврат инвестиций) из Big Data.

Еще одна проблема Big Data носит этический характер. А именно: чем сбор данных (особенно без ведома пользователя) отличается от нарушения границ частной жизни? Так, информация, сохраняемая в поисковых системах Google и Яндекс, позволяет им постоянно дорабатывать свои сервисы, делать их удобными для пользователей и создавать новые интерактивные программы.

Поисковики записывают каждый клик пользователя в Интернете, им известен его IP-адрес, геолокация, интересы, онлайн-покупки, личные данные, почтовые сообщения и прочее, что, к примеру, позволяет демонстрировать контекстную рекламу в соответствии с поведением пользователя в Интернете. При этом согласия на это не спрашивается, а возможности выбора, какие сведения о себе предоставлять, не дается. То есть по умолчанию в Big Data собирается все, что затем будет храниться на серверах данных сайтов.

Здесь можно затронуть дргую проблему — обеспечение безопасности хранения и использования данных. Например, сведения о возможных покупателях и их история переходов на сайтах интернет-магазинов однозначно применимы для решения многих бизнес-задач. Но безопасна ли аналитическая платформа, которой потребители в автоматическом режиме (просто потому, что зашли на сайт) передают свои данные, — это вызывает множество споров. Современную вирусную активность и хакерские атаки не сдерживают даже супер-защищенные серверы правительственных спецслужб.

История больших данных

Сами по себе алгоритмы Big Data возникли при внедрении первых высокопроизводительных серверов (мэйнфреймов), обладающих достаточными ресурсами для оперативной обработки информации и пригодных для компьютерных вычислений и для дальнейшего анализа..

Сам термин Big Data впервые был озвучен в 2008 году на страницах спецвыпуска журнала Nature в статье главного редактора Клиффорда Линча. Этот номер издания был посвящен взрывному росту глобальных объемов данных и их роли в науке.

Специалисты утверждают, что большими данными допустимо называть любые потоки информации объемом более 100 Гб в сутки.

Однако в последние 2-3 года ученые отмечают, что термин Big Data стал лишком популяризирован, его употребляют практически везде, где упоминаются потоки данных, и как следствие он стал восприниматься слишком обобщенно и размыто. Виной тому не совсем сведущие журналисты и малоопытные предприниматели, которые попусту злоупотребляют данным понятием. По мнению западных экспертов, термин давно дискредитировал себя и пришло время от него отказаться.

Сегодня мировое сообщество вновь заговорило о больших данных. Причины — в неизменном росте объемов информации и отсутствии какой-либо структуры в ней. Предпринимателей и ученых волнуют вопросы качественной интерпретации данных, разработки инструментов для работы с ними и развитие технологий хранения. Этому способствует внедрение и активное использованию облачных моделей хранения и вычислений.

Big Data в маркетинге

Информация – это главный аспект успешного прогнозирования роста и составления маркетинговой стратегии в умелых руках маркетолога. Анализ больших данных давно и успешно применяется для определения: целевой аудитории, интересов, спроса, активности потребителей. Таким образом, Big Data является точнейшим инструментом маркетолога для предсказания будущего компании.

К примеру, анализ больших данных позволяет выводить рекламу (на основе известной модели RTB-аукциона — Real Time Bidding) только тем потребителям, которые заинтересованы в товаре или услуге.

Применение Big Data в маркетинге позволяет бизнесменам:

  • лучше узнавать своих потребителей, привлекать аналогичную аудиторию в Интернете;
  • оценивать уровень удовлетворенности клиентов;
  • понимать, соответствует ли предлагаемый сервис ожиданиям и потребностям;
  • находить и внедрять новые способы, увеличивающие доверие клиентов;
  • создавать проекты, пользующиеся спросом.

Например, сервис Google.trends очень точно укажет маркетологу прогноз сезонной активности спроса на конкретный продукт, колебания и географию кликов. Достаточно сопоставить эти сведения со статистическими данными собственного сайта и можно составить качественный план по распределению рекламного бюджета с указанием месяца и региона.

Читать еще:  Лекции по маркетинговым исследованиям

Вместо заключения

Сегодня, в пик высоких технологий и огромных потоков информации, у компаний появилось гораздо больше возможностей для достижения превосходных показателей в ведении бизнеса благодаря использованию Big Data.

Big data в маркетинге

Большие данные — новая нефть

В конце 1990-х годов предприниматели из разных сфер бизнеса пришли к пониманию, что данные — это ценный ресурс, который при правильном использовании способен превратиться в мощный инструмент влияния. Проблема была в том, что объем данных увеличивался в геометрической прогрессии, а существующие на тот момент способы обработки и анализа информации были недостаточно эффективны.

В 2000-х годах технологии совершили «квантовый скачок». На рынке появились масштабируемые решения, способные обрабатывать неструктурированную информацию, справляться с высокой нагрузкой, строить логические связи и переводить хаотичные данные в интерпретируемый формат, понятный человеку.

Сегодня большие данные входят в одно из девяти направлений программы «Цифровая экономика РФ», занимая верхние строчки в рейтингах и статьях расходов компаний. Самые крупные инвестиции в технологии больших данных производят компании из торгового, финансового и телекоммуникационного секторов.

По разным оценкам, текущий объем российского рынка больших данных составляет от 10 млрд до 30 млрд руб. По прогнозам Ассоциации участников рынка больших данных, к 2024 году он достигнет отметки 300 млрд руб.

Через 10–20 лет большие данные станут главным средством капитализации и будут играть в жизни общества роль, сопоставимую по значению с электроэнергетикой, утверждают аналитики.

Формулы успеха для ретейла

Современные покупатели — больше не безликая масса статистических данных, а вполне очерченные индивидуумы с уникальными характеристиками и потребностями. Они избирательны и без сожалений переключаются на бренд конкурента, если его предложение покажется привлекательнее. Именно поэтому ретейлеры используют большие данные, которые позволяют взаимодействовать с покупателями адресно и точно, ориентируясь на принцип «уникальному потребителю — уникальный сервис».

1. Персонализированный ассортимент и эффективное использование пространства

В большинстве случаев окончательное принятие решения «покупать или не покупать» происходит уже в магазине возле полки с товарами. По статистике Nielsen, на поиск нужного товара на полке покупатель тратит всего 15 секунд. Это значит, что для бизнеса очень важно поставить в конкретный магазин оптимальный ассортимент и правильно его презентовать. Чтобы ассортимент отвечал спросу, а выкладка способствовала продажам, необходимо изучить разные категории больших данных:

  • локальную демографическую ситуацию,
  • платежеспособность,
  • покупательское восприятие,
  • покупки по программе лояльности и многое другое.

Например, оценка частоты покупок определенной категории товаров и измерение «переключаемости» покупателя с одного товара на другой поможет сразу понять, какая позиция продается лучше, какая избыточна, и, следовательно, более рационально перераспределить денежные ресурсы и спланировать магазинное пространство.

Отдельное направление развития решений на основе больших данных — эффективное использование пространства. Именно на данные, а не на интуицию теперь опираются мерчандайзеры при выкладке товаров.

В гипермаркетах X5 Retail Group схемы выкладки товаров генерируются автоматически с учетом свойств торгового оборудования, предпочтений покупателей, данных об истории продаж отдельных категорий товаров и других факторов.

При этом правильность выкладки и количество товаров на полке отслеживается в реальном времени: технологии видеоаналитики и компьютерного зрения анализируют поступающий от камер видеопоток и выделяют события по заданным параметрам. Например, сотрудники магазина получат сигнал, что банки с консервированным горошком стоят не на своем месте или что на полках закончилась сгущенка.

2. Персонализированное предложение

Персонализация для потребителей в приоритете: согласно данным исследований компаний Edelman и Accenture, 80% покупателей с большей вероятностью купят товар, если ретейлер сделает персонализированное предложение или даст скидку; более того, 48% опрошенных без раздумий уходят к конкурентам, если товарные рекомендации не точны и не отвечают потребностям.

Чтобы соответствовать ожиданиям покупателей, ретейлеры активно внедряют ИТ-решения и аналитические инструменты, которые собирают, структурируют и анализируют данные о покупателях, помогая понять потребителя и вывести взаимодействие на личностный уровень. Один из популярных форматов среди покупателей — секция товарных рекомендаций «вам может быть интересно» и «с этим товаром покупают» — тоже формируется по результатам анализа прошлых покупок и предпочтений.

Компания Amazon генерирует такие рекомендации с помощью алгоритмов коллаборативной фильтрации (один из методов построения рекомендаций, использующий известные предпочтения группы пользователей для прогнозирования неизвестных предпочтений другого пользователя). По словам представителей компании, 30% всех продаж обязаны именно амазоновской рекомендательной системе.

3. Персонализированная доставка

Современному покупателю важно получать желаемый товар быстро, независимо от того, идет ли речь о доставке заказа из интернет-магазина или о поступлении желаемых продуктов на полки супермаркета. Но одной скорости недостаточно: сегодня быстро доставляют все. Ценен также индивидуальный подход.

У большинства крупных ретейлеров и компаний-перевозчиков транспорт оснащен множеством датчиков и RFID-меток (используются для идентификации и отслеживания товара), с которых поступают огромные объемы информации: данные о текущем местоположении, размере и весе груза, загруженности дорог, погодных условиях и даже о поведении водителя.

Анализ этих данных не только помогает в реальном времени составлять наиболее экономичный и быстрый трек маршрута, но и обеспечивает прозрачность процесса доставки для покупателей, у которых появляется возможность отслеживать перемещения своего заказа.

Современному покупателю важно получать желаемый товар как можно скорее, но и этого недостаточно, потребитель нуждается и в индивидуальном подходе

Персонализация доставки — ключевой фактор для покупателя на этапе «последней мили». Ретейлер, который на этапе принятия стратегических решений объединяет данные покупателей и логистики, сможет оперативно предложить клиенту забрать товар из пункта выдачи, куда его будет быстрее и дешевле всего доставить. Предложение получить товар в тот же день или на следующий вместе со скидкой на доставку сподвигнет клиента съездить даже на другой конец города.

Amazon, как обычно, пошел дальше конкурентов, запатентовав технологию упреждающей логистики, работающую на базе предиктивной аналитики. Суть в том, что ретейлер собирает данные:

  • о прошлых покупках пользователя,
  • о товарах, добавленных в корзину,
  • о товарах, добавленных в вишлист,
  • о движениях курсора.

Алгоритмы машинного обучения анализируют эту информацию и прогнозируют, какой товар клиент с наибольшей вероятностью купит. Затем товар отправляется более дешевой стандартной доставкой в транспортный хаб, который расположен ближе всего к пользователю.

Современный покупатель готов платить за индивидуальный подход и уникальный опыт дважды — деньгами и информацией. Обеспечивать должный уровень сервиса, учитывающий личные предпочтения покупателей, возможно только с помощью больших данных. Пока лидеры индустрии создают целые структурные подразделения для работы с проектами в сфере больших данных, представители малого и среднего бизнеса делают ставку на коробочные решения. Но цель у всех общая — выстроить точный потребительский профиль, понять потребительские боли и определить триггеры, влияющие на решение о покупке, расставить акценты в списках закупок и создать всесторонний персонализированный сервис, который будет стимулировать покупать еще и еще.

Ссылка на основную публикацию
Adblock
detector