Энциклопедия маркетинга, https://www.marketing.spb.ru

Адрес документа: https://www.marketing.spb.ru/soft/3rd_wave_customer_analytics.htm
Обновлено: 20.11.2017

Третья волна клиентской аналитики

По материалам статей Алана Моррисона, Бо Паркера, Бада Матхейзеля и Галена Грумана PricewaterhouseCoopers
Перевод ABBYY Language Services

 

Оглавление:

  1. Компоненты аналитики нового поколения
  2. Наука и искусство технологий аналитики нового поколения
  3. Как ИТ-директор может сформировать основы культуры работы с данными
 

Компоненты аналитики нового поколения

По словам Джона Слэйда (Jon Slade), директора глобальных продаж стратегической и онлайн-рекламы на сайте FT.com британской газеты Financial Times, ежегодно он анализирует 6 миллиардов просмотров рекламы, представленной на FT.com, и определяет, какой из просмотров представляет максимальную ценность для каждого потенциального клиента. Раньше для этого приходилось использовать трудоемкие методы извлечения информации из множества баз данных и электронных таблиц. Джону Слэйду удалось значительно повысить скорость и эффективность данного процесса благодаря сотрудничеству с компанией Metamarkets, которая предлагает облачный сервис под названием Druid на основе технологии In-Memory Analytics (распределенных вычислений в оперативной памяти серверов). «Раньше для составления прогноза рекламных ресурсов отделу продаж приходилось по электронной почте направлять запрос в отдел рекламных операций. При этом на подготовку прогноза уходило не менее 8 часов работы, а на получение ответа – до двух рабочих дней», – говорит Джон Слэйд. Теперь, благодаря прямому интерфейсу с данными, для предоставления необходимой информации требуется всего 8 секунд. В результате отдел рекламных операций получает время для того, чтобы сосредоточиться на наиболее стратегических вопросах. Параллельная обработка данных, технология in-memory, новый интерфейс и многие другие усовершенствования позволили добиться более высоких экономических результатов, в том числе обеспечить двузначные темпы роста доходности рекламы и улучшить на 15-20% точность измерения контрольных показателей по предлагаемым объемам просмотров рекламы.

Улучшение работы рекламных операций FT.com стало возможным благодаря таким тенденциям в развитии новых технологий, как облегчение доступа к данным, более быстрые и менее дорогостоящие вычислительные системы, новые программные инструменты, а также усовершенствованный пользовательский интерфейс. Сегодня точность принимаемых предприятиями решений сравнима с научным пониманием информации. Поэтому указанные тенденции смело можно назвать движущей силой новой эпохи в использовании аналитики крупными компаниями по всему миру. С помощью пакетов статистического программного обеспечения, ориентированных на проведение научных исследований, и инструментов визуализации новая аналитика способна применять строгие научные методы, в том числе формирование и проверку гипотез. Это ведет к появлению в составе бизнес-подразделений отделов по аналитике данных, которые приходят на смену централизованным аналитическим отделам. Перечисленные тенденции будут развиваться все быстрее, и лидеры бизнеса, использующие новую аналитику, смогут создать такую культуру работы с данными, которая повысит эффективность решений, принимаемых на их предприятиях (см. рис. 1).

В этом номере издания Technology Forecast мы исследуем влияние аналитики нового поколения и культуры работы с данными. В первой статье на нескольких примерах рассмотрены важнейшие компоненты аналитики нового поколения. Другие материалы этого номера посвящены технологиям, на которых основаны указанные возможности (см. статью «Искусство и наука новых технологий аналитики»), а также определению стратегических рамок работы ИТ-директора относительно эффективного использования всего спектра возможностей аналитики (см. статью «Как ИТ-директор может сформировать основу культуры работы с данными»).

Постоянно повышаются вычислительная мощность и объемы оперативной памяти, расширяются возможности массового распараллеливания в облачной среде и снижаются затраты на один бит обрабатываемой информации.

Аналитики данных стремятся получать более крупные наборы информации и выполняют больше итераций для уточнения своих запросов и поиска лучших ответов. Возможности визуализации и более интуитивные пользовательские интерфейсы позволяют большинству работников предприятия проводить как минимум базовые исследования.

Данные социальных медиа являются наиболее заметным примером возникновения множества крупных облачных сред информации, которые способны помочь предприятиям лучше понимать своих клиентов. Эти облачные среды дополняют возрастающий объем данных, к которым бизнес-подразделения компаний имеют прямой доступ внутри предприятия.

Один основной показатель способен сплотить работников всей компании; особенно он формируется с учетом других показателей, которые генерируются с помощью эффективного моделирования.

Не важно, идет ли речь о компании, работающей в области компьютерных игр или электронной коммерции, об операторе интеллектуальной электросети, который генерирует, обрабатывает и обменивается со своими клиентами и партнерами аналитической информацией об энергопотреблении, в любом случае улучшенная аналитика поступает непосредственно клиентам и другим заинтересованным сторонам. И возможности получения этой информации «встраиваются» в такие места, где их легче найти пользователям.

Улучшение визуализации и пользовательского интерфейса позволили предоставлять возможности специальной аналитики для любого рабочего места и для каждой роли пользователя. В то же время сегодня, как никогда ранее, востребованы аналитики данных, которые сочетают творческую способность генерировать полезные гипотезы с умением моделировать работу изменяющегося предприятия.
Преимущества более широкой культуры работы с данными включают новые возможности, снижение рисков, а также наличие сотрудников, которые лучше понимают потребности клиентов и способны максимально использовать имеющиеся возможности. Предприятия, которые понимают и умеют выгодно использовать тенденции, описанные в этой статье, смогут изменить корпоративную культуру своей компании и улучшить способы привлечения и удержания клиентов.

Рисунок 1. Как влияет на предприятия улучшение возможностей клиентской аналитики

Выше скорость вычислений, больше возможностей хранения данных и масштабирования

Основные тенденции в области вычислений – это движущая сила третьей волны развития бизнес-аналитики, которую в компании PwC называют аналитикой нового поколения. Постоянно повышаются вычислительная мощность и объемы оперативной памяти, расширяются возможности массового распараллеливания в облачной среде и снижаются затраты на один бит обрабатываемой информации. В FT.com смогли выгодно воспользоваться всеми этими тенденциями. Джону Слэйду приходится держать на своем столе несколько компьютерных мониторов, чтобы успевать следить за поступающей информацией. Для его работы необходимо глубокое понимание читательской аудитории и самых подходящих видов рекламы. Просмотры рекламы, число появлений рекламы на соответствующих веб-страницах – вот источник доходов сайтов крупных средств массовой информации. Цена просмотров должна определяться на основе читательских сегментов, представители которых, вероятнее всего, увидят рекламу и перейдут по соответствующей ссылке. Например, в FT.com высоко оценили бы читательский сегмент, состоящий из руководителей предприятий во Франции. «Пользователи оставляют огромное количество «информационных следов» при просмотре содержимого на нашем сайте, – говорит Джон Слэйд. – Проблема заключалась в том, чтобы понять, какая информация полезна для нас и как ее можно использовать».

В прошлом также возникали сложности с имевшимися в распоряжении FT.com аналитическими возможностями. «Основные категории информации, например, демографические данные, данные о поведении пользователей, ценообразовании, доступных ресурсах, хранились во множестве различных баз и электронных таблиц, – отмечает Джон Слэйд. – Нам приходилось буквально колдовать над созданием алгоритмов, позволяющих получать ответы на такие вопросы, как «Сколько у нас просмотров рекламы?» и «Какую цену я должен установить?». Это был очень трудоемкий процесс».

Потенциальное решение в FT.com увидели после обсуждения с компанией Metamarkets первоначальной концепции, которая по мере совместной работы развивалась дальше. Благодаря использованию аналитической платформы Metamarkets в FT.com получили возможность быстро выполнять итерации и изучать множество вопросов с целью улучшения процесса принятия решений. «Наша технология оптимизирована для облачной среды. Поэтому мы можем использовать вычислительную мощность десятков, сотен или тысяч серверов в зависимости от объема данных наших клиентов и их конкретных потребностей, – говорит Майк Дрисколл (Mike Driscoll), президент компании Metamarkets. – В течение нескольких миллисекунд мы можем обработать запросы по миллиардам строк данных. Такая скорость в сочетании с применением науки о данных и средств визуализации помогает бизнес-пользователям понимать и применять информацию, основанную на больших наборах данных».

Несколько десятилетий назад в ходе первой волны аналитики небольшие группы специалистов управляли компьютерными системами. Еще меньше специалистов было занято поиском ответов в наборах данных. Для выполнения запросов и анализа данных бизнесменам, как правило, приходилось обращаться к соответствующим экспертам. По мере роста объема корпоративных данных, собираемых с помощью систем планирования ресурсов предприятия (ERP) и из других источников, ИТ-подразделения накапливали наиболее структурированную информацию в хранилищах данных. А затем аналитики могли оценивать ее в интегрированном виде. Когда бизнес-подразделения стали направлять запросы о предоставлении отчетов по значимым для них наборам информации, возникли киоски данных. Однако при этом ИТ-подразделения по-прежнему контролировали все источники.

Вторая волна аналитики характеризовалась появлением различных вариантов централизованного сбора, составления отчетности и анализа данных по принципу «сверху вниз». В 1980-е годы эта тенденция начала вступать в противоречие с идущими снизу инициативами по децентрализации. Они были вызваны наступлением эпохи персональных компьютеров, быстрым распространением электронных таблиц и других методов, которые быстро завоевали широкую популярность (а зачастую и дурную репутацию в связи с различными злоупотреблениями). Огромное количество полезной информации по-прежнему находится в хранилищах и киосках данных. Основная проблема централизованной аналитики в ходе первой и второй волны заключалась в необходимости реагировать на потребности предприятий в условиях, когда сами бизнес-подразделения не были уверены в том, какую информацию они хотели бы найти или по каким признакам следует вести поиск. Третья волна клиентской аналитики позволяет решить эту проблему благодаря предоставлению доступа и инструментов непосредственно тем специалистам, которые должны действовать на основе полученной информации. Новая аналитика опирается на экспертизу широкой экосистемы бизнеса для решения проблем, связанных с недостаточно оперативным реагированием центральных аналитических подразделений (см. рис. 2). Появление децентрализованной аналитики стало возможным благодаря повышению скорости обработки данных, улучшению возможностей хранения и масштабирования на основе совместного создания ресурсов в облачных средах. Инновации в области децентрализованной аналитики развивались быстрее, чем соответствующие централизованные варианты, и, по мнению компании PwC, эта тенденция сохранится и в будущем.

«Просматривая какие-либо данные, вы можете решить, что необходимо изменить выполняемый запрос. При этом вам требуется возможность сразу перейти к новому запросу, – говорит Джок Маккинлей (Jock Mackinlay), директор по визуальному анализу в компании Tableau Software, одного из поставщиков новых интерфейсных приложений для визуализации аналитики. – Ни одна автоматизированная система не сравнится со скоростью потока человеческой мысли».

Рисунок 2. Три волны аналитики и влияние децентрализации
Облачные вычисления ускоряют децентрализацию выполнения аналитических функций на предприятии.

Больше времени и более совершенные инструменты для работы

Ключевое значение для аналитики нового поколения имеет использование методов работы с большими массивами данных, в частности баз данных NoSQL и in-memory, расширенных статистических пакетов (решений от SPSS и SAS до предложений с открытым исходным кодом, например, на основе языка R), средств визуализации, на основе которых специалисты бизнес-подразделений создают интерактивную графику, и более интуитивных пользовательских интерфейсов. Эти методы предоставляют многим работникам предприятия возможность самостоятельно проводить определенные базовые исследования. Они также позволяют аналитикам данных в бизнес-подразделениях использовать более крупные наборы информации и выполнять больше итераций для проверки гипотез, уточнения запросов и поиска лучших ответов для решения проблем предприятия.

Аналитики данных – это неспециалисты, которые используют научные методы итеративного и рекурсивного анализа с целью получения практического результата. Даже без формальной подготовки некоторые бизнес-пользователи в области финансов, маркетинга, операций, человеческих ресурсов или представители других отделов предприятия уже обладают навыками, опытом и мышлением, позволяющими работать аналитиками данных. Других можно обучить этому делу. Очевидно, что преподавание соответствующей дисциплины является новой задачей ИТ-директора (см. статью «Как ИТ-директор может сформировать основы культуры работы с данными»). Инструменты визуализации оказались особенно полезными для компании Ingram Micro, дистрибьютора высокотехнологичной продукции. Она использует их для выбора оптимального расположения складов по всему миру. Выбор расположения склада – это стратегическое решение, и перед его принятием компания Ingram Micro рассматривает множество альтернативных сценариев. Одним из практических результатов такого анализа стали более короткие сроки аренды складов, что обеспечило Ingram Micro больше гибкости при постоянных изменениях требований цепочки поставок, которые связаны с затратами и временем.

«В нашем динамичном бизнесе с его невысокими коэффициентами доходности очень важно иметь эффективные каналы сбыта, – говорит Джонатан Чихорек (Jonathan Chihorek), вице-президент по глобальным системам цепочки поставок в компании Ingram Micro. – Сложность, размеры и последствия затрат, связанных с решениями о расположении складов, заставляют нас прорабатывать обширные модели наилучшего размещения дистрибьюторских центров как минимум ежегодно, а зачастую и два раза в год». Моделирование стало проще благодаря использованию инструментов оптимизации на основе частично целочисленного, линейного программирования, которые обрабатывают большие и разнообразные наборы данных, охватывающие множество факторов. «Значительного улучшения удалось добиться благодаря использованию быстрых 64-разрядных процессоров и твердотельных накопителей. Это сокращает время выполнения сценария с 6-8 часов до просто незначительных показателей, – говорит Джонатан Чихорек. – Еще одним преимуществом стали улучшенные инструменты визуализации, например, паутинообразная диаграмма и ваннообразная кривая распределения. Они помогают нашим аналитикам определить кривую границы эффективности в сложном массиве наборов данных, которые иначе выглядят просто как списки чисел».

Когда-то аналитические инструменты относились к сфере деятельности экспертов. Они не имели интуитивно понятного интерфейса и требовали длительного обучения. Специалисты, владевшие навыками работы с такими средствами, как правило, обладали глубокой подготовкой в области математики, статистического анализа или какой-нибудь научной дисциплины. Пользоваться этими инструментами могли только компании, имевшие выделенные группы соответствующих специалистов. Со временем благодаря совместной работе ученых и сообщества разработчиков программного обеспечения для бизнеса аналитические инструменты стали более удобными и доступными для людей, которые не разбираются в математических выражениях, необходимых для выполнения запросов и получения правильных ответы при обработке данных. Продукты от компаний QlikTech, Tableau Software и других разработчиков погружают пользователей в полноценную графическую среду, потому что для большинства людей визуальное отображение чисел понятнее, чем представление в виде таблицы. «Мы позволяем пользователям быстро получить графическое представление данных, – говорит Джок Маккинлей из компании Tableau Software. – Прежде всего, они используют приемы перетаскивания элементов в полях для различных смешанных источников данных, с которыми работают пользователи. Программное обеспечение интерпретирует перетаскивание элементов в виде алгебраических выражений и затем составляет из этих выражений запрос для базы данных. Впрочем, пользователю и не нужно все это знать. Ему просто нужно увидеть свои данные в визуальной форме». Сама компания Tableau Software – яркий пример того, как эти инструменты изменяют предприятие. «В нашей компании решения Tableau используют все и везде – от секретаря приемной, которая отслеживает использование конференц-зала, – до продавцов, контролирующих свои каналы сбыта», – говорит Джок Маккинлей. Помогая ориентироваться в информационных дебрях, эти инструменты увеличивают число финансовых, маркетинговых и операционных руководителей, которые становятся аналитиками данных.

Пример из деловой практики. Как компания E. & J. Gallo Winery подбирает отправляемые грузы для розничных клиентов

Компании E. & J. Gallo Winery, одному из крупнейших в мире производителей и дистрибьюторов вина, необходимо точно определять своих клиентов по двум причинам: в ряде местных и региональных нормативных актов установлены обязательные ограничения на сбыт алкоголя, а маркетинг брендов для розничной торговли требует знания клиентских предпочтений. «Большинство вин потребляется в течение четырех часов и на расстоянии 8 километров от места покупки. Поэтому для нас критически важно знать, какие продукты должны продвигаться на рынке и поступать в продажу на каждом конкретном географическом направлении», – говорит Кент Кушар (Kent Kushar), ИТ-директор E. & J. Gallo Winery.

В компании имеют точную информацию о движении товаров через дистрибьюторов, но вот с дальнейшей реализацией ясности меньше. Некоторые дистрибьюторы являются комитетами отдельных американских штатов по контролю за оборотом алкогольной продукции и поставляют винные изделия в розничные торговые точки и другим конечным потребителям. Часть продаж осуществляются через магазины военно-торговой службы США, которые иногда находятся за рубежом и попадают под действие различных ограничений и нормативных актов.

В E. & J. Gallo Winery есть большой отдел контроля за выполнением правил торговли, который помогает ориентироваться в нормативно-правовой среде на рынках продажи продукции компании. Однако предприятию требуется больше данных о клиентах, которые покупают и потребляют эти товары. Информация, полученная от таких клиентов, окажется полезной при создании новых продуктов, отвечающих местным вкусам. Компания E. & J. Gallo Winery не всегда может получить от ритейлеров данные из точек продаж, а значит, не может полностью сопоставить производимую и продаваемую продукцию. Обобщенные данные из таких источников, как компания Information Resources, Inc. (IRI), служат связующим звеном при сопоставлении информации о дистрибуции и фактическом потреблении товаров. Это приводит к ежедневному накоплению более чем 1 Гб данных в качестве источника информации для наблюдения за выполнением правил торговли и для маркетинга. Много лет назад руководство E. & J. Gallo Winery поняло возрастающее значение клиентской аналитики. Недавние инвестиции компании – это продолжение ее планов 25-летней давности, реализация которых ограничивалась в то время недостаточной доступностью данных и соответствующих инструментов. С 1998 года ИТ-подразделение E. & J. Gallo Winery работает над созданием передовых хранилищ данных, аналитических инструментов и средств визуализации. Компания одной из первых внедрила средства визуализации и создала ИТ-группы в рамках направления маркетинга бренда для эффективного использования собранной информации.

Первый успех подтолкнул E. & J. Gallo Winery к еще более значительным инвестициям в аналитику. «Мы перешли от ступенчатого к логарифмическому росту аналитики и недавно вновь сделали крупные инвестиции в новые устройства, системную архитектуру, инструменты извлечения, преобразования и загрузки данных (ETL) и способы написания наших запросов SQL. Кроме того, мы начали объединять неструктурированные данные с нашими традиционными структурированными данными о потребителях, – говорит Кент Кушар. – Осознание масштабов этих возможностей заставило нас определить 10-летний срок в развитии аналитики. Достигнутые нами на сегодня успехи в этой области изменили наши представления и способы использования аналитики».

В результате компания E. & J. Gallo Winery больше не полагается на единую базу данных, а создала несколько крупных специализированных баз. «Мы разработали новые соглашения об уровне обслуживания для наших внутренних клиентов, которые обеспечивают им более быстрый доступ к информации, а также более своевременное получение аналитики и отчетности», – говорит Кент Кушар. К внутренним клиентам ИТ-подразделения компании E. & J. Gallo Winery относятся цепочка поставок, отдел продаж, финансов, дистрибуции и группа разработки присутствия в глобальной сети.

Больше источников данных

Гигантские объемы данных в облачной среде и наличие огромной и недорогой вычислительной мощности способны помочь предприятиям анализировать различные проблемы бизнеса, в том числе лучше понимать клиентов, прежде всего с помощью социальных медиа. Внешние облачные среды дополняют данные, к которым бизнес-подразделения уже имеют прямой доступ внутри предприятия. «Компания Ingram Micro использует крупные и разнообразные наборы данных для моделирования расположения складов, – говорит Джонатан Чихорек. – Среди них: размер, вес и другие физические свойства продукции; географические характеристики потребителей и ожидаемый спрос на различные категории товаров; транспортные узлы для ввоза и вывоза грузов, сроки поставки и соответствующие затраты; аренда складов и эксплуатационные затраты, включая коммунальные услуги, а также затраты на трудовые ресурсы. И это только некоторые наборы данных».

Социальные медиа также могут дополнять внутренние данные предприятий, желающих научиться использовать эти информационные ресурсы. Некоторые компании игнорируют социальные медиа, потому что большинство проходящих в них обсуждений кажутся банальными. Однако тем самым они упускают имеющиеся возможности. Рассмотрим пример североамериканского производителя одежды, который занимался перепозиционированием бренда обуви. «Производитель собирал традиционные бизнес-данные для понимания статуса своего бренда. Однако он не проводил значительного анализа обсуждений своих продуктов в социальных медиа, – говорит Жози Латандрес (Josee Latendresse), руководитель фирмы Latendresse Groupe Conseil, которая консультирует компанию по вопросам перепозиционирования. – Мы не уделяли должного внимания богатейшему пласту информации, которую можно бы найти через социальные медиа».

Чтобы расширить область анализа, Жози Латандрес использовала в работе экспертизу и технологии компании Nexalogy Environics, которая занимается изучением графиков интересов на основе обсуждений в Интернете, т.е. связей между людьми, местами и вещами. Nexalogy Environics исследовала миллионы корреляций в графиках интересов и выбрала менее 1000 релевантных обсуждений из 90 000 дискуссий, в которых упоминались соответствующие продукты. В ходе этой работы Nexalogy Environics сумела существенно повысить долю «сигнала» и снизить долю «шума» в информации о производителе, полученной в социальных медиа (см. рис. 3).

Рисунок 3. Повышение соотношения «сигнал» – «шум» при мониторинге социальных медиа

Информация, обнаруженная компанией Nexalogy Environics, позволила предложить следующий шаг для перепозиционирования бренда. «Компания не занималась маркетингом для людей, которые писали в своих блогах о ее продукции», – говорит Клод Теоре (Claude Theoret), президент компании Nexalogy Environics. Обувь разрабатывалась для использования в конкретных промышленных целях, но авторитетные блогеры обратили внимание на ее привлекательность с точки зрения моды и практичность при езде на внедорожниках по пересеченной местности и в других условиях активного отдыха. «Это был целый сегмент рынка, о котором не знала компания». Выполнив анализ, Жози Латандрес помогла компании в целом расширить и совершенствовать процесс получения аналитической информации. По словам Жози, «ключевым шагом» является определение вопросов, на которые вы хотите получить ответ. Вас наверняка удивят полученные результаты, потому что система раскроет отношение клиентов, о котором вы даже ни догадывались».

После проведения анализа социальных медиа Жози Латандрес смогла по-новому взглянуть на деятельность ритейлера и его пользовательские фокус-группы. Она говорит, что анализ «позволил получить более полные результаты, чем при работе с фокус-группами». «Фокус-группы можно использовать позднее для проверки информации, обнаруженной в ходе анализа социальных медиа», – отмечает Жози. Теперь в рамках пересмотренного процесса получения аналитической информации фокус-группы располагаются ближе к концу цикла (см. рис. 4).

Среди тех, кто первыми воспользовался преимуществами облачной аналитики, такие сторонние компании, как Environics Nexalogy. Предприятия, подобные описанному в примере производителю одежды, могут иметь хорошие методы сбора данных, но при этом упускать из виду возможности извлечения данных в облачной среде, прежде всего в социальных медиа. По мере развития возможностей облачных технологий компании учатся выполнять больше итераций, сильнее подвергать сомнению исходные предположения и открывать для себя дополнительный потенциал уже имеющихся данных.

Вот один пример того, насколько может измениться крупный процесс бизнес-аналитики (BI) после добавления анализа социальных медиа.

Производитель одежды начал с традиционного цикла бизнес-аналитики.

Традиционные методы бизнес-аналитики, которые использовались консультантом компании, игнорировали социальные медиа и требовали значительной «чистки данных». В получаемых результатах зачастую отсутствовало понимание глубинных причин и взаимосвязей.

  1. Подготовка вопросов
  2. Сбор данных
  3. Очистка данных
  4. Анализ данных
  5. Представление результатов
Затем в структуру процесса были добавлены социальные медиа и целевые фокус-группы.

В пересмотренный подход компании были включены несколько дополнительных элементов, например, анализ социальных медиа. Одновременно более широко использовались другие элементы, однако работа с фокус-группами оставалась практически неизменной, как в самом начале цикла. С помощью анализа обсуждений в социальных медиа компания смогла получить новые знания о сегментах рынка, на которые ранее ее деятельность еще не была нацелена.

  1. Подготовка вопросов
  2. Уточнение традиционной бизнес-аналитики:
    • сбор данных
    • очистка данных
    • анализ данных
  3. Проведение фокус-групп (ритейлеры и конечные пользователи)
  4. Выбор обсуждений
  5. Анализ социальных медиа
  6. Представление результатов
Потом процесс был настроен для достижения максимальных результатов.

При нынешнем подходе компании использование фокус-групп предполагается в конце цикла бизнес-аналитики, где они непосредственно смогут ответить на новые вопросы. Особое внимание при этом уделяется и способу представления полученных результатов руководству предприятия.

  1. Подготовка вопросов
  2. Уточнение традиционной бизнес-аналитики:
    • сбор данных
    • очистка данных
    • анализ данных
  3. Выбор обсуждений
  4. Анализ социальных медиа
  5. Представление результатов
  6. Подготовка результатов с учетом аудитории
  7. Проведение фокус-групп (ритейлеры и конечные пользователи)

Рисунок 4. Добавление методов анализа социальных медиа ведет к другим изменениям в процессе бизнес-аналитики

Больше внимания ключевым контрольным показателям

Один из способов начала работы с аналитикой нового поколения – это привлечение внимания работников компании к одному основному показателю, особенно если он формируется на базе других показателей, генерируемых с помощью эффективного моделирования. Основной показатель и модель, которая помогает всем понять его, позволяют приобщить корпоративную культуру компании к языку, методам и инструментам, связанным с процессом достижения этой цели.

Для иллюстрации данного положения рассмотрим пример с провайдером телекоммуникационных услуг. Оператора интересовали пиковые значения показателя оттока клиентов к другим провайдерам, но он не изучал методично весь спектр своих записей о телефонных вызовах, чтобы детально разобраться в этом вопросе. Благодаря появлению методов анализа больших массивов стало возможным выполнить масштабный, итерационный анализ имеющейся информации. Оператор заключил партнерское соглашение с компанией Dataspora, консалтинговой фирмой. Именно эту компанию возглавлял Майк Дрисколл до того, как создал Metamarkets.

С помощью анализа миллиардов записей о вызовах операторы могут получить своевременное предупреждение о наличии групп абонентов, склонных к смене провайдера. Данная методика работает следующим образом:

  1. Оператор отмечает пиковые показатели оттока клиентов (долю абонентов на условиях договора, которые покидают провайдера в течение определенного периода времени)
  2. Компания Dataspora анализирует все записи о вызовах
  3. Первоначальный анализ позволяет развенчать некоторые устоявшиеся мифы и порождает новые вопросы, которые затем обсуждаются с оператором. При этом выявляются следующие устойчивые характеристики поведения абонентов: для людей, которые поддерживали отношения с покинувшим оператора клиентом (вызовы продолжительностью более двух минут, а также в два раза более длительные вызовы в предыдущем месяце), вероятность ухода оказалась на 500% выше
  4. Дальнейший анализ подтверждает, что друзья влияют на склонность своих знакомых к смене провайдера услуг
  5. Группа данных разворачивает систему мониторинга записей о вызовах, которая выдает предупреждения, идентифицирующие абонентов в зоне риска
  6. После этого маркетологи начинают кампанию специальных предложений, нацеленных на группы абонентов в зоне риска

«Мы проанализировали 14 миллиардов записей данных о вызовах, – вспоминает Майк Дрисколл, – и построили график вызовов наиболее активных клиентов, звонивших друг другу. Мы обнаружили, что если два абонента, которые были друзьями, общались более одного раза в течение более двух минут в данном месяце, и при этом первый абонент аннулировал свой договор, например, в октябре, то вероятность аннулирования договора вторым абонентом уже в ноябре возрастает на 500%».

Интеллектуальный анализ данных такого масштаба требует использования распределенных вычислений на сотнях серверов и выполнения повторных проверок гипотез. Оператор предполагал, что одной из возможных причин аннулирования договоров группами абонентов были обрывы вызовов. Однако проведенный компанией Dataspora анализ опроверг это представление и не выявил корреляции между обрывом звонков и аннулированием договоров. «Мы выполнили целый ряд действий. Во-первых, мы получили доступ ко всем данным, а затем разработали методику построения социального графика и другие полезные функции. В то же время мы опровергли ряд других гипотез», – говорит Дрисколл. Наблюдение за фактическим поведением людей подтвердило, что аннулирование договоров в рамках круга друзей носило волнообразный характер и приводило к появлению пиковых показателей оттока клиентов. Интенсивное внимание, уделенное ключевому показателю, продемонстрировало компании-оператору и ее работникам мощный потенциал аналитики нового поколения.

Улучшение доступа к результатам

Чем более распространенной становится онлайн-среда, тем чаще происходит обмен информацией. Не важно, идет ли речь о компании, работающей в области компьютерных игр или электронной коммерции, или об операторе интеллектуальной электросети, который генерирует, обрабатывает и обменивается со своими клиентами и партнерами аналитической информацией об энергопотреблении. В любом случае улучшенная аналитика поступает непосредственно клиентам и другим заинтересованным сторонам. И возможности получения этой информации «встраиваются» в такие места, где их легко могут найти пользователи.

Например, энергетические предприятия готовятся перейти на интеллектуальные электросети и начинают проявлять заинтересованность в помощи со стороны клиентов. При этом основой для совместной работы над повышением эффективности энергопотребления служит предоставление более точных данных и расширенных возможностей обмена оперативной и клиентской аналитикой. Сол Замбрано (Saul Zambrano), старший директор по энергетическим решениям для клиентов американской компании Pacific Gas & Electric (PG&E), которая одной из первых начала устанавливать умные счетчики, отмечает, что политические руководители страны выступают за увеличение доступа третьих сторон к использованию данных, полученных с помощью счетчиков. «Одной из основных политических инициатив на уровне нормативного регулирования является создание платформ, на основе которых третьи стороны смогут при соблюдении всех принципов конфиденциальности получить доступ к этим данным для построения рыночных бизнес-моделей, – говорит Сол Замбрано. – Управление электросетями и использованием энергии будет обеспечиваться как энергетическими компаниями, так и третьими сторонами». Замбрано подчеркнул важность участия клиентов в инициативах, связанных с эффективностью энергопотребления. Проблема, на которую он обращает внимание, касается того, в какой степени смешанные оперативные и клиентские данные окажутся полезными для более широкой экосистемы, охватывая миллионы частных и корпоративных клиентов. «Благодаря возможностям влияния информации и ее представления вы сможете продемонстрировать клиентам различные способы превращения в распорядителя потребляемой энергии», – говорит Сол Замбрано.

В условиях строго регулируемого бизнеса энергетическая отрасль сталкивается с множеством препятствий, которые необходимо преодолеть, чтобы достичь той точки, когда интеллектуальные электросети начнут реализовать свой потенциал. Однако концепция уже ясна. Это:

  • демонстрация клиентам нескольких ключевых показателей и сезонных тенденций в легкой для понимания форме;
  • предоставление средств улучшения этих показателей с более глубоким представлением областей, связанных с самыми высокими затратами на потребление энергии;
  • обеспечение клиентам возможности эталонного сравнения своих затрат путем предоставления сравнительных данных.

Новый вид обмена данными, возможно, является шансом для стимулирования конкуренции в области эффективности энергопотребления, которая ранее никогда не существовала между домовладельцами или между владельцами корпоративной недвижимости. Это также пример того, как расширение доступа к аналитике нового поколения способно помочь в создании культуры работы с данными в рамках всего расширенного предприятия.

Пример из деловой практики. Умное размещение на стеллаже: как аналитическая группа компании E. & J. Gallo Winery помогает своим розничным партнерам

Некоторые данные в информационной архитектуре компании E. & J. Gallo Winery предназначены не только для клиентской аналитики, но и для производства и контроля качества. Совсем недавно компания внедрила методику обработки сложных событий в исходной информации. Теперь она может своевременно рассматривать данные об успехах и неудачах в своей автоматизированной системе управления производственными процессами, системе управления заказов на продажу и системе бухгалтерского учета, которая является интерфейсным приложением главной книги.

Информация и информационные потоки являются источником жизненной силы E. & J. Gallo Winery. Однако максимально эффективное использование такой информации требует коллективных усилий. В рамках этой коллективной работы:

  • цепочка поставок наблюдает за информационными потоками;
  • отдел продаж определяет, какая информация необходима для сопоставления спроса и предложения;
  • отдел исследований и разработок берет на себя решение трудных задач по интеграции клиентских данных и разрабатывает пробные серии товаров для оценки потребления бренда;
  • ИТ-подразделение предоставляет данные и консультации о способах использования информации.

Изучение информации в конкретных ситуациях с целью определить повторяющиеся характеристики и понять причины и взаимосвязи требует коллективной работы. Ключевую цель такой работы в компании E. & J. Gallo Winery определяют как зондирование спроса для выяснения побудительной причины, которая формирует спрос на бренд и продукт. Это не просто компьютерная задача. Это работа, которая в значительной степени основана на участии человека в определении знаний, раскрываемых с помощью данных (для понимания основных тенденций продаж конкретных брендов в зависимости от местоположения товаров), или в проведении исследований и разработок для пробного рынка, либо в оценке информации, получаемой с веб-платформ.

Соответствующее понимание причин и взаимосвязей служит основой для разработки конкретного «умного размещения на стеллаже», т. е. размещения продукции по географическим регионам и местам расположения в магазине. Компания E. & J. Gallo Winery предлагает виртуальную схему конструкции винного стеллажа для ритейлеров, которая помогает предприятиям розничной торговли точно определять способы демонстрации винодельческой продукции в магазине в зависимости от бренда, типа и цены. Схема конструкции винного стеллажа от E. & J. Gallo Winery поможет ритейлерам оптимизировать продажи, причем для всех предложений винодельческой продукции. До появления схемы конструкции винного стеллажа от E. & J. Gallo Winery продажи винодельческой продукции не были значительным источником прибыли для розничных продуктовых магазинов. Но сегодня они стали первым или вторым источником прибыли для этих торговых точек.

«Благодаря информационным моделям, подобным схеме конструкции винного стеллажа, компания E. & J. Gallo Winery вот уже 11 лет остается лидером в категории винодельческих товаров в ряде продуктовых магазинов», – говорит Кент Кушар, ИТ-директор компании E. & J. Gallo Winery.

Заключение: более широкая культура работы с данными

В нашей статье были рассмотрены пути использования предприятиями больших массивов данных, инструментов и аналитики нового поколения, ведущих к более широкой культуре работы с данными, в которой улучшенные средства визуализации и пользовательские интерфейсы позволяют предоставлять специальные аналитические возможности для каждой пользовательской роли. Возможно, такая культура ознаменует начало эпохи аналитиков данных – работников, которые сочетают творческую способность генерировать полезные гипотезы с умением моделировать изменяющиеся бизнес-процессы.

Вполне логично, что на пути к созданию интеллектуальных электросетей энергетические компании организуют среду своей деятельности. Объем генерируемых ими данных может оказаться непомерно высоким. Однако эти данные также обеспечат возможности появления аналитики, необходимой для снижения энергопотребления и достижения целей в области эффективности и экологии. Не менее логичным выглядит тот факт, что предприятия начинают искать более эффективные способы фильтрации обсуждений в социальных медиа. В этом на собственном опыте убедился производитель одежды из нашего примера. Рентабельность инвестиций в поиск новых сегментов рынка может иметь решающее значение, когда речь заходит о выборе между долгосрочной жизнеспособностью бизнеса или его стагнацией, либо еще более печальном итоге.

Работа с новыми видами генерируемых данных – не единственная задача, которую аналитикам придется решать в будущем. Как и дистрибьютор технологических решений из нашего примера, предприятия всех отраслей заинтересованы в масштабировании аналитики привычных данных, которых становится все больше. Так, издатели могут настроить свои информационные системы для определения сроков, цены и целевой аудитории рекламных кампаний. А в итоге – обслуживать читателей на основе улучшенной и оптимизированной модели получения доходов от продажи рекламы. Операторы телекоммуникационных услуг смогут эффективнее добывать все клиентские данные с целью сокращения расходов, связанных с оттоком клиентов и повышением рентабельности.

Все эти примеры указывают на возросшую потребность приобщения более широкой части сотрудников предприятия, партнеров и клиентов к необходимым им данным и аналитическим методам. Не имея представления о повседневном поведении клиентов, сотрудники не поймут, как повысить удовлетворенность клиентов и действие рычагов влияния на развитие компании в меняющихся условиях. Такое понимание обеспечивается скоростью вычислений, возможностями хранения данных и масштабирования. При этом задача руководства компании заключается в том, чтобы воспользоваться формирующейся средой совместного творчества во всех отраслях экономики и создать культуру работы с данными.

Конечно, управление изменением корпоративной культуры – очень сложная задача по сравнению с простым развертыванием более производительного программного обеспечения для бизнес-аналитики. Лучше иметь несколько отправных точек и постоянно находить возможность подчеркивать значение аналитики в новых сценариях. Одним из способов повышения осведомленности о потенциале аналитики нового поколения служит представление полученных результатов в общепонятной визуальной форме. Другой способ – предоставить более широкому кругу работников возможность самостоятельно работать с данными, предлагая им провести собственный анализ информации и поделиться его результатами. Наконец, еще один подход предполагает назначение, обучение и компенсацию для наиболее энергичных и целеустремленных пользователей во всех подразделениях (финансовый отдел, товарные группы, цепочка поставок, отдел кадров и т.д.) в качестве аналитиков данных. В таблице приведены примеры подходов к поощрению формирования культуры работы с данными.

Ключевые элементы культуры работы с данными

Элемент Форма его проявления в организации Значение для организации
Поддержка руководства Руководители высшего звена компании требуют предоставлять данные для обоснования любого мнения или предлагаемых мер и сами используют интерактивные средства визуализации Пример для остальной части организации
Доступность данных Облачная архитектура (частное или публичное облако) и методы интеграции данных с развитой семантикой Поиск хороших идей из любого источника
Инструменты аналитики Включение в состав бизнес-подразделений более опытных аналитиков данных Определение скрытых возможностей
Интерактивная визуализация Визуальные пользовательские интерфейсы и инструмент, подходящий для соответствующего человека Поощрение культуры работы с данными
Обучение Опытные пользователи в отдельных подразделениях Популяризация и выделение самых эффективных и удобных методов работы
Обмен информацией Внутренние порталы или другие среды совместной работы для опубликования и обсуждения запросов и результатов анализа Подтверждение реальности существования культуры работы с данными

Совокупность всех тенденций, рассмотренных в этой статье, позволит предприятию создать такую культуру работы с данными, в которой точность аналитики, лежащей в основе принимаемых решений, сравнима с научным пониманием явлений. Новые возможности рынка, энергичные работники, заинтересованные в достижении лучшего понимания потребностей клиентов, и снижение риска – вот лишь некоторые из преимуществ культуры работы с данными. Предприятия, которые понимают и умеют выгодно использовать тенденции, описанные в этой статье, смогут улучшить способы привлечения и удержания клиентов.


Алан Моррисон (Alan Morrison)

Наука и искусство технологий аналитики нового поколения

Соединение аналитических способностей левого полушария мозга с творческим потенциалом правого полушария.

Аналитика нового поколения – это наука и искусство превращения невидимого в видимое. Речь идет о поиске «неизвестных неизвестных», как метко заметил бывший министр обороны США Дональд Рамсфельд, и о получении хотя бы минимальной информации об этом. То есть о выявлении неожиданных возможностей и угроз или поиске людей, о существовании которых вы даже не догадывались, но которые могут стать вашим следующим клиентом. Речь идет о получении по-настоящему важной информации, а не того, что вам показалось важным. Речь идет об определении и реализации наиболее значительных изменений, необходимых для вашего предприятия. Достижение такого уровня наглядности требует сочетания различных методов работы. Одни из них являются новыми, а другие нет. Одни явно относятся к области науки о данных, потому что позволяют выполнять итеративный и точный анализ больших, смешанных наборов данных. Другие, например, визуализация и более контекстный поиск, являются одновременно и наукой, и искусством. В этой статье рассматривается ряд новых технологий, которые сделали возможными приведенные примеры практического использования, и развитие культуры работы с данными. К числу таких технологий относятся:

  • технология in-memory: сокращение времени отклика и расширение сферы применения бизнес-аналитики (BI) за счет более активного использования оперативной памяти (памяти с произвольной выборкой) компьютера;
  • интерактивная визуализация: слияние пользовательского интерфейса и представления результатов в единую адаптивную визуальную среду аналитики;
  • строгость статистических вычислений: включение научной методики и доказательств в процесс принятия корпоративных решений;
  • ассоциативный поиск: получение конкретных имен и терминов путем просмотра информации в схожем контексте.

В сопроводительном обзоре «Обработка текстов с использованием естественного языка и аналитика социальных медиа» рассматриваются методы, которые используют поставщики для решения проблемы «поиска иголки в стоге сена» с целью обнаружить наиболее актуальные обсуждения конкретных продуктов и услуг в социальных медиа. Это связано с тем, что социальные медиа являются одним из основных источников данных для поисковой аналитики, а методы обработки текстов с использованием естественного языка (NLP) настолько разнообразны, что соответствующая тема требует отдельного рассмотрения.

Технология in-memory

Изучив последние достижения в области технологии in-memory, предприятия вскоре поняли, что ее основное преимущество (расширение возможностей оперативной памяти с помощью твердотельной памяти с прямым доступом и снижение зависимости от хранения данных на жестких дисках для уменьшения времени задержки) можно использовать в различных областях. Некоторые из этих моделей применения можно выгодно использовать уже в краткосрочной перспективе. Например, ускорение выполнения традиционной бизнес-аналитики – это краткосрочная цель, которую вот уже несколько лет можно достичь с помощью выпущенных ранее продуктов на основе технологии in-memory. Среди поставщиков решений бизнес-аналитики – компании MicroStrategy, QlikTech QlikView, TIBCO Spotfire и Tableau Software.

В более долгосрочной перспективе улучшаются возможности таких платформ, как Oracle Exalytics, SAP HANA и ожидаемой платформы in-memory от компании SAS на основе технологии Hadoop, выполнять запросы по широкому спектру разнородных источников данных. «Раньше при выводе информации на мобильные устройства выбор пользователей был ограничен пакетами бизнес-аналитики, например, BusinessObjects, – говорит Мурали Чилакапати (Murali Chilakapati), менеджер консультационной практики PwC по вопросам управления информацией и конструктор бизнес-решений HANA. – Теперь они выходят за рамки бизнес-аналитики. Я думаю, что технология in-memory является одной из самых эффективных для улучшения общего опыта аналитики на мобильных устройствах». Для полного видения перспектив в этой области необходима более универсальная аналитика на основе множества источников данных. Однако для этого потребуются значительные организационные и технологические изменения. Фундаментальные технологические изменения уже происходят, и со временем на их основе будут созданы более насыщенные приложения (см. рис. 5). «Пользователи уже сегодня могут создавать гибридные веб-приложения из различных наборов данных и технологий для обнаружения корреляций и тенденций», – говорит Курт Дж. Байлафер (Kurt J. Bilafer), региональный вице-президент по аналитике компании SAP. Чтобы понять, как достижения в области технологии in-memory позволят улучшить аналитику, полезно рассмотреть соответствующие технологические преимущества в области аппаратного и программного обеспечения и новые возможности их эффективного использования.

Рисунок 5. Перспективы применения технологии in-memory в области аналитики

Первоначально технология in-memory использовалась для дополнения возможностей традиционной бизнес-аналитики (BI) и прогнозной аналитики. Однако в течение прогнозируемого периода область ее применения будет расширяться, превращаясь в основу для корпоративных приложений и размывая границы между транзакционными системами и хранилищами данных. В долгосрочной перспективе, возможно, появятся инструменты для более всестороннего обзора данных о клиенте.

В течение десятилетий бизнес-аналитика испытывала трудности, связанные с медленным откликом (также известным, как время задержки) компьютерных систем. Технология in-memory помогает решить эту проблему. Время задержки определяется наличием узких мест ввода и вывода в маршруте передачи данных компьютерной системы. Для уменьшения влияния этих узких мест можно использовать шесть подходов:

  • направление трафика по дополнительным маршрутам передачи данных (распараллеливание)
  • увеличение скорости передачи данных на отдельном маршруте (передача)
  • сокращение времени, необходимого для коммутации маршрутов (коммутация)
  • сокращение времени, необходимого для сохранения битов информации (запись)
  • сокращение времени, необходимого для извлечения битов информации (чтение)
  • сокращение времени вычислений (обработка)

Для надлежащей и недорогой обработки, а также сохранения данных компьютерные системы часто «подкачивают» их из одного вида памяти в другой. При этом каждый раз возникают задержки в передаче, коммутации, записи или чтении битов информации. Сравните такое требование перемещения данных с отдельным процессом обработки информации. Обработка происходит гораздо быстрее, потому что большинство операций выполняются внутри микросхемы или непосредственно связаны между собой. Функции обработки всегда опережают по скорости работу в многоуровневой памяти. Если предоставить этим системам возможность хранить больше данных в оперативной памяти или в условиях непосредственного доступа для центральных процессоров, они смогут обойтись без подкачки данных и повысить эффективность работы за счет ускорения ввода и вывода информации.

Сокращение подкачки данных снижает необходимость в дублирующих операциях чтения, записи и перемещения информации. Возможность загрузки и работы с целыми наборами данных в основной памяти, т. е. в памяти с произвольной выборкой, вместо частого чтения и записи данных на диск позволяет обойти многие узкие места ввода и вывода информации.

Системам требовалось выполнять много операций подкачки отчасти и потому, что более быстрые носители информации были дорогими. Именно по этой причине для хранения данных в организации использовались емкие и менее дорогостоящие диски. По мере возрастания плотности размещения транзисторов на 1 кв. мм площади микросхемы стоимость передачи одного бита при использовании полупроводниковой (или твердотельной) памяти упала, а возможность разместить больше битов на микросхеме определенного размера возросла. Сегодня для получения максимального эффекта во многих местах целесообразнее использовать полупроводниковую память, и тем самым снизить зависимость от дисков с высоким временем задержки.

Конечно, твердотельная память, используемая в приложениях с прямым доступом, динамическая память с произвольной выборкой (DRAM), является энергозависимой. Чтобы избежать повышенного риска потери данных при более активном использовании DRAM, системы баз данных in-memory включают уровень сохраняемости с возможностью резервного копирования, восстановления и ведения журнала транзакций. В системах распределенного кэширования или распределенного доступа к данным на основе технологии in-memory, например, в системе распределенного доступа к данным GigaSpaces XAP, Memcached и Oracle Coherence, которые кэшируют (или хранят в доступном месте) значительный объем данных в DRAM для ускорения производительности веб-сайта, такой метод называется упреждающим кэшированием при записи.

Эти системы обновляют базы данных на диске асинхронно от записи в DRAM. В результате остальной части системы не требуется ожидать завершения процесса записи на диск перед выполнением другой записи.

Дополнительная скорость усовершенствованной технологии in-memory позволяет выполнять больше аналитических итераций в течение определенного промежутка времени. Когда в основной памяти размещается весь пакет бизнес-аналитики, появляется намного больше возможностей для выполнения запросов данных. Кен Кэмпбелл (Ken Campbell), директор консультационной практики PwC по управлению информацией и корпоративными данными, отмечает: «Наличие большого набора данных в одном месте обеспечивает больше гибкости». Корпорация T-Mobile, один из клиентов компании SAP, использующих платформу HANA, утверждает, что теперь отчеты, на подготовку которых ранее уходили часы, генерируются всего за несколько секунд. Чтобы добиться этого, потребовалось выполнить широкомасштабную настройку платформы HANA.

Устройства с таким уровнем возможностей основной памяти стали появляться в конце 2010 года, когда компания SAP впервые предложила платформу HANA для своих избранных клиентов. Вскоре за этим последовало предложение от компании Oracle, объявившей о выходе решения Exalytics In-Memory Machine на конференции OpenWorld в октябре 2011 года. Другие поставщики, хорошо известные в области решений бизнес-аналитики, хранилищ данных, технологий баз данных, также стараются не отставать. Полное использование преимуществ технологии in-memory зависит от аппаратного и программного обеспечения, что требует обширных партнерских отношений между поставщиками и провайдерами задолго до появления самой идеи реализации таких решений.

Представления о скачкообразных изменениях в области технологии in-memory фактически отражают постепенную эволюцию твердотельной памяти на протяжении многих лет. С 2011 года поставщики могут устанавливать по меньшей мере 1 ТБ оперативной памяти (как правило, DRAM) в одном устройстве. Помимо установки DRAM, поставщики также добавляют в каждое устройство большое количество многоядерных процессоров. Например, устройство Exalytics содержит четыре 10-ядерных процессора. Улучшения коснулись и сетевых возможностей новых устройств.

Соединения InfiniBand стали более популярными для высокоскоростных приложений ЦОД в конце первого десятилетия этого века. С каждым последующим поколением устройств фактическая скорость передачи данных по интерфейсу InfiniBand все более приближается к чистой пропускной способности. В 2011 году стали доступны устройства, работающие в режиме FDR InfiniBand с чистой скоростью передачи данных более чем 14 Гбит/с.

Базы данных in-memory отличаются довольно высокой скоростью, потому что они полностью предназначены для работы в основной памяти. В 2005 году корпорация Oracle приобрела компанию TimesTen, поставщика высокоскоростных баз данных in-memory для телекоммуникационных и торговых предприятий. Благодаря улучшениям в технологии производства оперативной памяти в 2011 году Oracle заявила, что теперь в основной памяти можно разместить полную реализацию решения бизнес-аналитики, например, сервер Oracle BI. Также стали возможными федеративные базы данных, т.е. группа автономных баз данных, работающих как одно целое. «Я могу выполнить федерирование данных из пяти физических баз на одном компьютере», – говорит Оливер Холтер (Oliver Halter), глава подразделения прикладной аналитики PwC.

В 2005 году компания SAP приобрела P*Time, базу данных для оперативной обработки транзакций (OLTP) с высоким уровнем распараллеливания, и соединила ее возможности в области баз данных in-memory с соответствующими функциями баз данных TREX и MaxDB для создания устройства баз данных in-memory на платформе HANA. Платформа HANA предусматривает сохранение данных как по строкам (оптимально для транзакционных данных с большим количеством полей), так и по столбцам (оптимально для аналитических данных с меньшим количеством полей), и обладает возможностями как для структурированных, так и для менее структурированных данных. HANA станет основой для всего спектра приложений SAP. Причем SAP планирует перевести свой модуль планирования ресурсов предприятия (ERP) на платформу HANA в четвертом квартале 2012 года, а затем сделать то же самое и в отношении других модулей.

В устройствах in-memory используется столбцовое сжатие, которое сохраняет схожие данные совместно с целью улучшения эффективности сжатия. Компания Oracle заявила о наличии у нее возможностей обеспечить пятикратное столбцовое сжатие. Таким образом, физическая емкость носителя 1 ТБ будет эквивалентна доступности пространства объемом 5 TБ. Провайдеры других систем управления столбцовыми базами данных, например, компании EMC/Greenplum, IBM/Netezza и HP/Vertica, на протяжении многих лет совершенствовали свои возможности столбцового сжатия и смогут применять их в своих устройствах in-memory.

Примеры использования преимущества бизнес-процессов на основе технологии in-memory

Технология in-memory позволяет за считанные минуты выполнять запросы, на которые ранее требовалось несколько часов, и это обстоятельство имеет множество практических последствий. Более быстрое выполнение запросов дает возможность существенно ускорить бизнес-процессы, связанные с интенсивной обработкой данных. Рассмотрим пример оптимизации цепочки поставок в области бытовой электроники.

Иногда, чтобы выявить и устранить пробелы в пополнении запасов телевизоров, запрос у определенного ритейлера занимает более 30 часов. А производитель телевизоров, использующий устройство на основе технологии in-memory, способен выполнять подобные запросы менее чем за один час. Это позволит ему значительно сократить время, необходимое для реагирования на недостаточный уровень поставок.

Или рассмотрим новые возможности для более широкого использования прогнозной аналитики в бизнес-процессах с помощью технологии in-memory. Используя эту технологию, аналитики получили бы в свое распоряжение новые способы выявления признаков мошенничества при подаче налоговых деклараций. В свою очередь, это позволит предоставлять следователям больше упреждающей информации и повысить эффективность работы по поиску и поимке потенциально наиболее опасных преступников еще до того, как такие схемы совершения правонарушений получат широкое распространение.

Получение конкурентного преимущества в этих случаях зависит от сочетания эффективной стратегии, выбранных средств и исполнения, а не только от покупки и внедрения новых технологических решений. В приведенных примерах проблема заключается не просто в использовании новой технологии, а в ее эффективном применении. Как производитель телевизоров может сократить время прогнозирования недостаточного уровня поставок? Какие алгоритмы могут стать самыми нужными для выявления новых форм мошенничества при подаче налоговых деклараций? При эффективном использовании технология in-memory способна стимулировать появление многих творческих идей для улучшения бизнес-процессов.

Более адаптивные и эффективные алгоритмы кэширования

Физический размер основной памяти все еще ограничен, поэтому в устройствах по-прежнему широко используются продвинутые методы кэширования, которые увеличивают фактический объем основной памяти. Новейшие алгоритмы кэширования (списки вычислительных процедур, определяющих выбор данных для сохранения в памяти) предназначены для решения уже давно существующей проблемы, связанной с выгрузкой из памяти таблиц, которые должны сохраняться в кэше. «На протяжении последних 20 лет стратегия кэширования опиралась на алгоритмы с минимальной частотой использования, – говорит Оливер Холтер. – Использование таких алгоритмов не всегда является наилучшим подходом». Термин «с минимальной частотой использования» определяет то, как эти алгоритмы удаляют данные, которые не использовались активно по крайней мере в последнее время.

Такой метод хорошо выглядит в теории, но на практике соответствующие алгоритмы способны удалить данные, в частности таблицы фактов (например, список стран), которые системе необходимо иметь «под рукой». Алгоритмы не были достаточно умны, чтобы распознавать самые неиспользуемые, но при этом чрезвычайно важные таблицы фактов, которые можно легко кэшировать в основной памяти, поскольку они обладают небольшими размерами.

В целом по многим направлениям в технологии in-memory удалось продвинуться вперед и добиться улучшений. Возможно, самое главное – это преодоление разработчиками систем отдельных препятствий в области аппаратного обеспечения, которые не допускали установления прямых соединений, необходимых для обработки данных. Это фундаментальный первый шаг в ходе многоэтапного процесса. Хотя уже существуют необходимые аппаратные средства, методы кэширования и отдельные программы, для усовершенствования ПО и приближения реальных возможностей технологии к более масштабному видению перспектив потребуются годы.

Бизнес-аналитика в режиме самообслуживания и интерактивная визуализация

Одна из основных проблем, с которыми сталкивается бизнес-аналитика, – необходимость упростить выполнение запросов со стороны различных конечных пользователей и возможность использовать при этом метод итераций. Применение инструментов бизнес-аналитики в режиме самообслуживания обеспечивает обычным пользователям доступ к более широкому набору функций. Эти инструменты также позволяют упростить выполнение более широкого круга задач в ходе рабочих процессов аналитики. Многие инструменты, например, QlikView, Tableau и TIBCO Spotfire, используют преимущества новой технологии in-memory для сокращения времени задержки. Однако для инноваций в области бизнес-аналитики не менее важно наличие интерфейсов, которые соединяют визуальные методы смешивания и манипулирования данными со способами их отображения и обмена полученными результатами. В инструментах бизнес-аналитики с наиболее продвинутыми возможностями визуализации представление данных становится просто еще одной особенностью пользовательского интерфейса.

Как работает интерактивная визуализация

Один из важных элементов, которого не хватало бизнес-аналитике и другим аналитическим платформам, – способ построения более эффективного связующего звена между человеческим языком в пользовательском интерфейсе и машинным языком. Например, функция перетаскивания элементов используется в пользовательских интерфейсах уже на протяжении десятилетий. Однако исторически перетаскивание было связано только с одной функцией приложения, например, с перемещением файла из одной папки в другую.

Для выполнения запросов данных пользователи вводили с помощью клавиатуры соответствующие операторы на таких языках, как SQL. Но на изучение этих языков требовалось время. Отличие инструментов, подобных решению Tableau: манипулирование данными с помощью привычных приемов (например, путем перетаскивания элементов) превращается в часть постоянного диалога с компонентами базы данных, которые находятся в активной памяти. Благодаря этому визуальный пользовательский интерфейс обеспечивает более легкий способ выполнения запросов на уровне данных. Для создания подобного диалога в решении Tableau используется так называемый «визуальный язык запросов» (VizQL). С помощью VizQL элементы интерфейса, которые пользователь видит на экране, кодируются в алгебраические выражения, а затем интерпретируются и выполняются компьютерами на уровне данных. Язык VizQL использует табличную алгебру, которая была разработана для этого подхода, и отображает строки и столбцы на осях «х» и «у», а уровни данных – на оси «z». Джок Маккинлей, директор по визуальному анализу в компании Tableau Software, объясняет решение следующим образом: «Алгебра обеспечивает четкую интерпретацию представления данных аппаратными средствами. А это позволяет создать очень простой пользовательский интерфейс».

Преимущества интерактивной визуализации. Психологи, которые изучают процесс обучения, выделили два типа людей: те, кто использует в основном левое полушарие мозга, отличаются более аналитическим, логичным и линейным мышлением, а те, кто «отдает предпочтение» правому полушарию, отличаются более синтезированным подходом, нацеленным на выявление отношений частей к целому. Последние более склонны к визуальному предоставлению информации и обращают внимание на взаимоотношения между различными элементами. И эти люди составляют значительную часть населения. Поэтому использование удобных для них инструментов может иметь решающее значение для того, будет ли создана культура работы с данными, в которой для решения проблем применяются различные стили мышления, или придется довольствоваться работой изолированных групп специалистов в области статистики.

Новый класс инструментов бизнес-аналитики с интерактивной визуализацией в режиме самообслуживания позволяет привлечь к работе тех сотрудников (в т. ч. с доминирующим правосторонним мышлением), которые ранее не занимались аналитикой.

В детской больнице Сиэтла (США) решение Tableau стало использоваться по инициативе директора по управлению системой знаний Теда Корбетта (Ted Corbett). Позднее, по словам Элиссы Финк (Elissa Fink), директора по маркетингу компании Tableau Software, это решение стало применяться на следующих функциональных направлениях:

  • оптимизация использования помещений – обеспечить наиболее оптимальное использование ограниченных ресурсов операционного зала;
  • оптимизация запасов – благодаря предоставлению обзора ресурсов, доступных в рамках всей больницы, сократить склонность младшего медицинского персонала к накоплению излишних запасов;
  • отчетность о заказах на взятие проб – не допустить дублирования проб, заказанных в одной части больницы, в других ее подразделениях;
  • определение и подбор источников и получателей финансовой помощи – более быстро выявлять нуждающихся в поддержке родителей больных детей и подбирать источники финансовой помощи.

Распространение устройств iPad и других планшетов, а также использование социальных сетей внутри предприятия способно еще больше стимулировать принятие этого класса инструментов. Например, решение TIBCO Spotfire для iPad 4.0 интегрируется с Microsoft SharePoint и tibbr, инструментом для работы в социальных сетях от компании TIBCO.

Решение QlikTechQlikView11 также интегрируется с Microsoft SharePoint и основано на архитектуре веб-приложений HTML5, которая подходит для планшетов и других портативных устройств. Примеры более широкого использования статистических данных по-прежнему можно найти в области спорта. В книге Майкла Льюиса (Michael Lewis) Moneyball («Бейсбол и деньги») описывается, как несколько лет назад известный американский спортсмен Билли Бин (Billy Beane) и бейсбольная команда Oakland Athletics наняли специалистов в области статистики, чтобы легче набирать игроков и принимать решения по составу команды. Для этого использовались показатели, на которые раньше почти никто не обращал внимания. Билли Бин добился значительных успехов благодаря своему методу, который сегодня скопирован большинством бейсбольных команд.

В 2012 году велась дискуссия относительно того, должны ли команды, играющие в американский футбол, серьезно относиться к аналитическим работам таких ученых, как Тобиас Московиц (Tobias Moskowitz), профессор экономики в Чикагском университете и соавтор книги под названием Scorecasting («Прогнозирование спортивных результатов»). Московиц проанализировал 7000 решений о четвертом дауне (попытке продвижения мяча в сторону очковой зоны соперника в американском футболе) и их результаты, в том числе положение игроков на поле после выполнения панта (выбивания мяча ногой с руки) и другие факторы. И пришел к выводу, что команды должны намного реже разыгрывать пант, чем они это делают. Такой вывод противоречит общепринятому среди тренеров американского футбола мнению. Даже имея 75 шансов из 100 на успех в первом дауне, когда до цели остается всего два ярда, тренеры обычно решают выполнять пант в четвертом дауне. Специалисты, привыкшие действовать вопреки сложившимся представлениям, например, Кевин Келли (Kevin Kelley) из колледжа Pulaski Academy в Литл-Рок (США), подтвердили правоту выводов Тобиаса Московица. С 2003 года Келли 500 раз принимал решения о четвертом дауне (при различном расстоянии до цели), из которых 49% оказались успешными. Команда колледжа Pulaski Academy три раза выигрывала чемпионат штата после того, как Келли стал ее главным тренером.

Учет человеческого фактора. Как и в примерах из области спорта, применение статистического анализа в бизнесе может привести к выводам, которые противоречат давно сложившимся предположениям. При этом основные принципы такого анализа не представляют особой сложности. «Существуют определенные принципы и понятия статистики, которые лежат в основе всех самых изощренных методов. Вы сможете получить значительные результаты или далеко продвинуться без необходимости выполнения сложных математических расчетов», – говорит Кайзер Фанг (Kaiser Fung), адъюнкт-профессор Нью-Йоркского университета.

Одним из примеров такого подхода является простое рассмотрение показателя изменчивости. Фанг считает показатель изменчивости недооцениваемым фактором по сравнению, например, с определением средних значений. Если вы управляете парком отдыха и можете сократить самые долгие периоды ожидания перед катанием на аттракционе, то это очевидный путь для улучшения удовлетворенности клиента. Такой подход, возможно, принесет более высокую отдачу и окажется менее затратным, чем сокращение среднего времени ожидания.

Польза статистики во многом связана с возможностью противопоставить привычкам старого мышления новые достоверные выводы, которые могут показаться нелогичными людям, не привыкшим к работе со статистикой или предпочитающим действовать на основании собственных предположений. Очевидно, что противоречащие здравому смыслу, но в то же время достоверные выводы, связанные с практическими показателями бизнеса, приносят пользу. Они привлекают внимание людей. Чтобы противостоять привычкам старого мышления, компаниям необходимо поднять престиж специалистов по статистике, ученых и инженеров, которые разбираются в статистических методах, и сделать их работу более заметной. Это, в свою очередь, будет способствовать повышению наглядности статистического анализа, который выполняется путем внедрения соответствующего программного обеспечения в обычную программную среду компании.

Отличная визуализация без нормализованных данных

Как правило, использование программных продуктов в области бизнес-аналитики предполагает наличие хорошо продуманных базовых данных, обеспечивающих применение производительных инструментов визуализации и изучения сценариев. К сожалению, в некоторых областях хорошо продуманная и структурированная информация является редкостью. Интерактивные инструменты способны помочь уточнить запросы пользователей и объединить данные. Однако зачастую они требуют наличия нормализованной и схематичной структуры.

Программный продукт Freemix от компании Zepheira, ставший основой проекта Viewshare.org Библиотеки Конгресса США, работает с менее структурированными данными, даже с файлами значений, разделенных запятыми (CSV), без заголовков. Вместо предположения о том, что данные уже подготовлены для аналитической обработки компьютерами, разработчики Freemix пришли к выводу, что компьютер нуждается в помощи пользователя для определения контекста, и сделали возможным генерирование такого контекста даже неискушенным пользователем.

С помощью аннотаций и дополнений Freemix сопровождает пользователя на протяжении всего процесса добавления контекста для данных. Затем решение предоставляет плагины для нормализации полей, и это улучшает структуру данных с помощью новых, производных полей (полученных, например, путем геолокации или извлечения объектов). Эти возможности помогают пользователю быстро отображать и анализировать данные, даже при наличии только неоднородных входных данных.

Язык R: эволюция открытого исходного кода для статистического программного обеспечения

До недавнего времени пакеты статистического ПО представляли собой обособленную группу продуктов. Студенты колледжа, обучавшиеся статистике, использовали определенный пакет ПО. А применяемый в нем язык программирования сильно отличался от других языков, например, Java. Поэтому студентам приходилось изучать не только язык статистического ПО, но и другие языки программирования. Те, кто не обладал широтой познаний в области языков, сталкивались с ограниченностью применения своих навыков. Возможности других студентов, которые разбирались в языке Python или Java, но не владели навыками работы со статистическими пакетами, также были ограничены.

С тех пор многое изменилось, и эти изменения связаны с распространением R, статистического языка программирования с открытым исходным кодом, который обладает возможностями широкого использования в бизнес-среде. Язык R завоевал популярность в университетах и насчитывает в своей экосистеме тысячи вспомогательных приложений с открытым кодом. В своей последней инкарнации он стал частью структуры больших массивов данных и аналитических сред, которые в большей степени ориентированы на использование визуализации.

Язык R в средах с открытым исходным кодом для больших массивов данных

Специалисты в области статистики, как правило, работали с небольшими наборами данных на своих ноутбуках. Однако теперь они могут работать с языком R непосредственно в Hadoop, кластерной вычислительной среде с открытым исходным кодом. Компания Revolution Analytics, которая предлагает коммерческий дистрибутив языка R, создала в 2011 году интерфейс Hadoop для R, чтобы пользователям R не требовалось использовать модель программирования MapReduce или язык Java. В результате у специалистов в области статистики и программистов, работающих с языком R, появились не существовавшие ранее возможности аналитики больших массивов данных, которые не требуют наличия каких-либо дополнительных навыков.

Преобразование языка R в SQL и в часть среды Oracle для больших массивов данных

В январе 2012 года корпорация Oracle объявила о выходе Oracle R Enterprise, своего дистрибутива языка R, который поставляется в комплекте с дистрибутивом Hadoop для ее собственного устройства работы с большими массивами данных. С помощью этого дистрибутива пользователи языка R смогут выполнять анализ в базе данных Oracle 11G. По утверждению Oracle, работа с ее базой данных обеспечивает преимущества в области производительности.

Интеграция интерактивной визуализации с языком R

Одной из новейших возможностей, связанных с языком R, является его интеграция в инструменты интерактивной визуализации. Язык R наиболее известен своими возможностями статистического анализа, а не интерфейсом. Тем не менее в таких интерактивных инструментах визуализации, как Omniscope, разработчики начинают предлагать интеграцию с языком R наряду со значительным улучшением интерфейса.

Получаемая при этом интеграция позволяет просматривать данные из различных источников, перетаскивать элементы из этих источников и осуществлять индивидуальные статистические операции на языке R, а также перетаскивать и соединять элементы для объединения и отображения результатов. Пользователи могут просматривать результаты в представлении диспетчера данных или в виде графика, а также уточнять результаты визуализации в рамках одного или одновременно обоих этих представлений.

Значительную пользу развитию языка R оказал его авторитетный статус в сообществе разработчиков решений с открытым исходным кодом. В результате он попал в число продуктов для основной среды анализа данных. Сегодня существует потенциал для более непосредственной совместной работы аналитиков и специалистов в области статистики. Улучшение визуализации и интерфейсы для планшетных компьютеров предусматривают более производительную и непосредственную передачу статистической информации руководителям компаний.

Ассоциативный поиск

Простой поиск по ключевым словам дает не много, особенно при работе с базами данных, которые используются для бизнес-аналитики. Часто поиск по ключевым словам вообще не дает результатов в силу семантических причин. Пользователи, выполняющие поиск, не способны угадать термин в базе данных, который наиболее соответствует предмету их запроса.

Для решения этой проблемы в инструментах бизнес-аналитики, работающих в режиме самообслуживания, например, QlikView, предусмотрена функция ассоциативного поиска. Ассоциативный поиск позволяет пользователям выбрать два или несколько полей и одновременно провести поиск результатов в каждом выбранном поле, чтобы найти ссылки на другое понятие или название.

С помощью этой методики пользователи могут найти неожиданные идеи, а иногда и обнаружить совершенно новую для себя информацию благодаря четкому представлению различных ассоциаций между данными. Они выполняют поток запросов, выбирая ряд данных, и наблюдают за тем, как приложение мгновенно фильтрует информацию в полях на основе их выбора. В любой момент пользователи могут увидеть не только ассоциации между различными данными, но и то, какие данные не связаны между собой. Данные, относящиеся к их выбору, выделяются белым цветом, а несвязанные данные – серым.

В случае ассоциативного поиска в приложении QlikView пользователи вводят соответствующие слова или фразы в любом порядке и получают быстрые, ассоциативные результаты. Они могут вести поиск по всему набору данных, а с помощью полей поиска по отдельным спискам пользователи могут ограничить область поиска одним полем. Пользователи имеют возможность выполнять как прямой, так и косвенный поиск. Например, пользователь хочет найти торгового представителя, но не может вспомнить его имя и имеет только отдельные сведения об этом человеке, например, то, что он продает рыбную продукцию клиентам в скандинавском регионе. Пользователь может выполнить поиск в поле списка торговых представителей по ключевым словам «скандинавский» и «рыба», чтобы ограничить результаты поиска только продавцами, отвечающими этим критериям.

Вывод: отсутствие недостатка видения перспектив, ресурсов или технологий

Очевидно, что аналитика нового поколения не испытывает недостатка в амбициях, видении перспектив или технологических инновациях. Компания SAP намерена создавать свою новую архитектуру приложений на основе устройства для базы данных in-memory, работающего на платформе HANA. Корпорация Oracle планирует выполнять в оперативной памяти целые пакеты приложений, начиная с бизнес-аналитики. Другие поставщики решений бизнес-аналитики или столбцовых баз данных имеют схожее видение перспектив. Компания Tableau Software и другие разработчики решений в области интерактивной визуализации продолжают совершенствовать и расширять возможности визуального языка программирования, который позволяет даже обычным пользователям извлекать, анализировать и отображать информацию с помощью перетаскивания нескольких элементов интерфейса. Все больше предприятий сохраняют свои клиентские данные в течение длительного времени, чтобы иметь возможность более эффективно извлекать информацию из записей прошлых периодов. Ежедневно в самых различных новых местах устанавливаются датчики, генерирующие возрастающий объем данных для анализа.

Очевидно, что в перспективе появится возможность использования значительной части человеческих ресурсов для работы над тем или иным аспектом аналитики нового поколения. Но это не единственная перспектива. Появится больше данных и больше идей об этих данных для сотрудников, которые уже полностью вовлечены в бизнес-аналитику благодаря процессам, налаженным в непосредственной близости от происходящих событий; синтаксическому анализу и интерпретации текстовой информации, а не просто чисел; скорости, с которой можно направлять и выполнять запросы о данных; возможности определить то, является ли полученный результат случайной ошибкой или повторяющимся фактом; а также активному взаимодействию с аналитикой, которое стало возможным с появлением интерактивной визуализации. Эти изменения позволят компаниям намного точнее понимать окружающую среду и быстро реагировать на нее.

Чтобы найти новых клиентов, развенчать устоявшиеся мифы и выявить незамеченные ранее факты, существует множество различных способов оптимизации элементов бизнес-процессов. Конечно, очень важны первые шаги. Ведь внедрение правильных технологий способно направить развитие организации на формирование культуры работы с данными и привлечь к аналитической работе тех, кто еще не был задействован в полной мере.


Как ИТ-директор может сформировать основы культуры работы с данными

Аналитика нового поколения требует от ИТ-директоров и их организаций поиска новых путей взаимодействия с деловыми партнерами. При всех стратегических возможностях, которые аналитика нового поколения предлагает предприятию, она в то же время угрожает значению должности ИТ-директора. Угроза связана с тем, что деловые партнеры ИТ-директора получают услуги для анализа данных за рамками обычных каналов закупки ИТ. А это вытесняет из соответствующего процесса экспертов, которые непосредственно способны внести в него реальную ценность.

Возможно, ориентированный на пользователя подход поставщиков основан на предположении о том, что только пользователи в своих функциональных областях могут понять, какие данные и выводы из их анализа имеют значение. Возможно, ИТ-директор и соответствующие подразделения не продемонстрировали ту ценность, которую они способны предложить, или уделяли слишком много внимания контролю безопасности и уровню затрат в ущерб демонстрации потенциальной ценности ИТ-структур. Кроме того, возможно только группы пользователей имеют достаточное финансирование для изучения аналитики нового поколения.

Какими бы ни были причины, ИТ-директора должны подняться над ними и найти способы предоставления существенных возможностей для аналитики нового поколения, наслаждаясь при этом радостью открытия аналитической информации (пусть даже и опосредованно). При этом ИТ-подразделение может стать «местом паломничества» для других отделов компании, а ИТ-директор – настоящим информационным лидером. Аналитика нового поколения создает проблемы, но также она предоставляет и возможности. Ведь такая аналитика в большей степени относится к сфере ответственности ИТ-директора, чем почти любое другое изменение в области информационных технологий. Новая аналитика должна рассматриваться в качестве долгосрочного сотрудничества между ИТ-подразделениями и деловыми партнерами. В свое время компания PwC выступала за такие же взаимоотношения в связи с феноменом ориентации ИТ на потребителей, вызванным распространением мобильных технологий, социальных сетей и облачных услуг. Такое тесное сотрудничество может оказаться выгодным как для деловых партнеров, так и для ИТ-директора. Аналитика нового поколения – это шанс ИТ-директора показать себя с лучшей стороны, вернуть информационное лидерство и обеспечить прочную основу для новой культуры работы с данными.

Множество способов превращения ИТ-директоров в лидеров аналитики нового поколения

В компаниях, которые предоставляют информационные продукты или услуги (например, здравоохранение, финансы и некоторые энергетические компании), непосредственный вклад ИТ-директора в использование аналитики нового поколения связан с вполне определенной добавленной стоимостью. Рассмотрим компанию Edwards Lifesciences, в которой конвергенция новых данных при участии ИТ-директора была выгодно использована в области моделирования гемодинамики (кровообращения). Новые цифровые медицинские приборы, способные генерировать непрерывный поток данных, дают возможность измерять, анализировать, определять границы повторяющихся характеристик и предлагать диагнозы.

«Кроме того, появляются и личные возможности, поскольку я должен представлять наш новый продукт, EV1000, непосредственно клиентам совместно с представителями наших бизнес-подразделений», – говорит Ашвин Ранган (Ashwin Rangan), ИТ-директор компании Edwards Lifesciences. Ранган эффективно использует свое понимание базовых технологий и в качестве ИТ-директора содействует предоставлению необходимой информационной инфраструктуры. Как ИТ-директор он также вызывает доверие со стороны клиентов при обсуждении с ними информационных возможностей продукции своей компании.

Для ИТ-директоров, чей бизнес не связан с информационными продуктами или услугами, существует еще одна причина для участия в работе над аналитикой нового поколения вне рамок традиционных областей реализации возможностей, а также управления, рисков и соответствия требованиям. Это необходимость установления долгосрочных отношений с деловыми партнерами. В подобном партнерстве пользователи из бизнес-подразделений принимают решения о степени важности того или иного вида аналитики, а ИТ-специалисты консультируются с ними в отношении используемых методов, в том числе по вопросам предоставления данных и инструментов. Возможно, такие ИТ-директора менее заметны за пределами предприятия. Однако они играют важную роль внутри компании при совместном изучении возможностей аналитики, приносящих полезные результаты.

Именно такого подхода придерживается компания E. & J. Gallo Winery. Ее высшее руководство осознало необходимость детальной клиентской аналитики. «ИT-подразделение успешно сотрудничает с отделами маркетинга, продаж, исследований и разработок, дистрибуции компании. Это позволяет эффективно использовать возможности получения информации из различных источников. В центре внимания аналитики находится не ИТ-отдел, а бизнес-подразделения, – говорит Кент Кушар, ИТ-директор компании E. & J. Gallo Winery. – После совместной многолетней работы с деловыми партнерами ИТ-подразделение компании вложило значительные средства в обновленную инфраструктуру и приступило к объединению неструктурированных данных с традиционными структурированными клиентскими данными».

Независимо от отношений ИТ-директора с бизнес-подразделениями, многие технические инвестиции ИТ-отдела служат фундаментом для аналитики нового поколения. Зачастую ИТ-директор способен эффективно использовать эту традиционную роль, чтобы из-за кулис направлять развитие аналитики нового поколения. Однако даже такая роль (вместо открытого руководства в качестве сторонника аналитики, представляющей ценность для бизнеса) требует от ИТ-подразделения новых навыков, новой архитектуры данных и новых инструментов.

В компании Ingram Micro, дистрибьюторе высокотехнологичной продукции, ИТ-директор Марио Леоне (Mario Leone) рассматривает хорошо интегрированную ИТ-архитектуру как важнейшую услугу для деловых партнеров, предназначенную для поддержки разнообразной и динамичной модели продаж компании, а также то, что в Ingram Micro называют «пограничным» анализом логистики дистрибуции. «ИT-подразделение разрабатывает модульную и масштабируемую архитектуру объединительной панели для предоставления актуальной аналитики в реальном времени», – говорит он. С одной стороны объединительной панели находятся различные источники данных, предоставляемых в основном через взаимодействие с партнерами; на другой стороне объединительной панели – инструменты и возможности аналитики, в том числе такие новые функции, как распознавание характеристик, оптимизация и визуализация. В совокупности поступление нескольких потоков данных из разных точек и продвинутые инструменты для бизнес-пользователей способны обеспечить выполнение более сложного и итерационного анализа. Именно такой анализ позволит глубже понимать предлагаемый ассортимент продукции, изменения покупательского поведения клиентов и предпочтения в отношении электронных каналов доставки. Объединительная панель является точкой конвергенции этих данных в едином хранилище (см. рис. 6).

Учитывая наличие нескольких вариантов участия ИТ-директоров в аналитике нового поколения (и их личную заинтересованность в этом), следующий вопрос заключается в выборе способа такого участия. Опросив ведущих ИТ-директоров и других специалистов отрасли, PwC предлагает следующие рекомендации.

Рисунок 6. Возможные роли ИТ-директора в различных ситуациях

Предоставление возможностей аналитикам данных

Одно из возможных направлений действий – стратегическое планирование и предоставление данных и инфраструктуры для новых источников данных и новых инструментов (см. обсуждение в следующем разделе). Тем не менее более крупная проблема заключается в необходимости пробудить производственный потенциал пользователей. И здесь возникает несколько вопросов.

  • Как ИТ-директора могут решить такую задачу, не зная заранее, кто из пользователей будет применять новые возможности?
  • Работа над расширением возможностей аналитики ведется в течение длительного времени. Однако достижению цели мешают несколько препятствий (например, сложность использования инструментов, ограниченность данных и чрезмерная зависимость от ИТ-специалистов). ИТ-директора должны задаться вопросом: какие из этих препятствий уменьшаются благодаря новым возможностям, а какие остаются?
  • По мере распространения аналитики в рамках организации может оказаться слишком мало сотрудников, умеющих выполнять анализ и представлять выводы на основе данных. Кто быстрее остальных продвинется вверх по кривой обучения предмету анализа, методам получения и обработки данных, а также способам обнаружения полезной информации?

В этих условиях предприятию требуется аналитик данных, точнее, несколько таких аналитиков. Аналитики данных используют научные методы итеративного и рекурсивного анализа для получения практического результата. Соответствующие примеры нетрудно представить – результаты, которые повышают выручку, рентабельность, эффективность операций или цепочки поставок, исследований и разработок, финансирования, бизнес-стратегии, использование человеческого капитала и так далее. Не существует гарантированного способа заблаговременного определения того, где и когда появится это понимание. Поэтому к решению задачи нельзя подходить по аналогии со сборочной линией, где результаты заранее определены.

Аналитический подход предполагает использование метода проб и ошибок и предусматривает возможность тупиковых ситуаций, хотя даже в этом случае аналитик данных способен сделать полезный вывод: «Это решение не работает». Даже без формального обучения некоторые бизнес-пользователи имеют подходящие навыки, опыт и мышление. Других же необходимо обучать и побуждать к тому, чтобы они думали как ученые, но вели себя как (выберите соответствующую должность) финансовый аналитик, маркетолог, аналитик продаж, аналитик качества операций и т. д. Когда дело доходит до перепрофилирования части сотрудников, важно предвидеть препятствия или часто встречающиеся возражения и рассмотреть пути их преодоления (см. таблицу).

Как говорит Жози Латандрес из компании Latendresse Groupe Conseil, один из ее клиентов, производитель одежды в канадской провинции Квебек, для работы в этой должности нанимал людей с ученой степенью. «Они были в состоянии изучить соответствующие факторы и выполнить очень, очень тонкий анализ информации», – отмечает Латандрес. «В компании E. & J. Gallo Winery специалистам в области статистики из отделов ИТ, исследований и разработок, продаж и цепочки поставок было поручено определить анализируемую информацию, подлежащие выполнению запросы, проверяемые гипотезы и последующие действия», – отмечает Кент Кушар.

ИТ-директор имеет возможность помочь в определении необходимых навыков и в обучении и поддержке аналитиков данных, которые могут находиться за пределами ИТ-подразделения. ИТ-директора должны работать с лидерами каждого бизнес-подразделения для получения ответов на следующие вопросы: в какой области аналитическая информация принесет наиболее высокие дивиденды? Кто является вероятными кандидатами в соответствующих подразделениях на предоставление доступа к этим возможностям, а также на получение обучения и поддержки?

Многие сотрудники могут получить или усовершенствовать свои аналитические навыки. ИТ-директор занимает наилучшее положение, чтобы обеспечить развитие и совершенствование таких навыков. Прежде всего ИТ-директор должен предоставить необходимые инструменты и данные. Однако аналитика данных требует от ИТ-директора и соответствующего подразделения взять на себя больше ответственности за эффективность использования ресурсов, чем в прошлом. Как отмечает Кент Кушар, в компании E. & J. Gallo Winery в составе ИТ-подразделения есть группа, специально предназначенная для управления и распространения инструментов бизнес-аналитики, обучения и процессов.

В прошлом при развертывании крупных систем ИТ-директора прилагали все усилия для обучения и поддержки пользователей. Однако ИТ-директора лишь косвенно отвечали за эффективность работы пользователей. В случае аналитики данных такая ответственность является более непосредственной – не стоит делать инвестиции, если ИТ-подразделение не подключается к повышению производительности пользователей. Обучение должно носить всесторонний характер и выходить за рамки изучения инструментов. Оно должно помогать пользователям создавать гипотезы, обнаруживать данные путем выполнения итераций и находить глубинные причины и взаимосвязи в результатах, которые не совпадают с гипотезой, понимать ограниченность данных и делиться результатами с другими работниками (например, с помощью краудсорсинга), чьи взгляды могут отличаться от представлений пользователя.

Таблица. Барьеры на пути принятия аналитики и пути их преодоления

Барьер Решение
Слишком сложное использование Убедитесь, что инструментом и данными удобно пользоваться. Применяйте опубликованные интерфейсы прикладного программирования (API) в отношении хранилищ данных. Включите в группы пользователей сотрудников, обученных аналитике. Предлагайте частое обучение для широкого круга работников. Создайте службу поддержки аналитики.
Отказ принимать факты и анализ на их основе, в итоге – игнорирование аналитики Требуйте всестороннего рассмотрения вопросов и уделяйте внимание людям с иным мнением. Создайте культуру изучения фактов, работы с данными и обучения.
Отсутствие стимулов к занятию аналитикой и критериев оценки эффективности персонала Внесите вклад в получение идей на основе аналитики непосредственной части оценки эффективности персонала. Признавайте заслуги и поощряйте тех, кто творчески использует аналитику.

Обучение должно охватывать различные инструменты, поскольку одним из факторов, создающих возможности для получения информации, является надлежащее сочетание инструмента, работника и проблемы. Причем эти сочетания меняются от задачи к задаче и от работника к работнику. Необходимо иметь набор инструментов для решения целого ряда вопросов аналитики, а не один инструмент, который действует только в ограниченной области и для определенных способов мышления.

ИТ-директор может также создать и укрепить информационную культуру работы с данными, участвуя в выполнении пробного анализа данных. Такое участие оказывает прямую и моральную поддержку части самых важных людей в организации. Для ИТ-директоров ключевой аспект заключается в необходимости заботиться об инфраструктуре, но при этом уделять больше внимания фактическому использованию информационных услуг. Передовая аналитика добавляет понимания и повышает производительность при оказании этих услуг.

Обновление ИТ-инфраструктуры для аналитики нового поколения

Как и в случае всех инвестиций в информационные технологии, ИТ-директора несут ответственность за окупаемость затрат на использование аналитики. В течение нескольких десятилетий было потрачено немало времени и денежных средств на создание архитектуры данных, определение «интересных» данных, сбор, фильтрацию, хранение, архивирование, защиту, обработку и представление данных, обучение пользователей, а также соответствующее программное и аппаратное обеспечение. Это делалось для получения уникальных знаний, использование которых позволит улучшить маркетинг, повысить продажи, улучшить отношения с клиентами и увеличить эффективность бизнес-операций.

Большинство предприятий были разочарованы отсутствием явной отдачи от крупных инвестиций в анализ данных. Поэтому они могут сделать вывод о том, что на самом деле аналитика нового поколения не так уж и нова. Это было бы ошибкой. Как и в случае большинства других изменений в ИТ, в аналитике нового поколения есть старые, новые и заимствованные элементы, а возможно, даже нечто такое, что повергает в уныние. Не все является новым. Однако это не оправдывает отношение к аналитике нового поколения как к повторению уже пройденного. В действительности, такое отношение означает, что для вас принятие аналитики нового поколения – не более чем применение новых инструментов и, возможно, персонала к своей нынешней деятельности. Сам по себе инструмент не решает проблемы и не способен понять глубинные причины и взаимосвязи. Это делают люди, которые могут открыто и свободно вести исследования и нестандартно мыслить, опираясь на различные инструменты. Поэтому не стоит просто заново создавать старые шаблоны или обновлять существующие стереотипы.

Даже если ИТ-директор настроен скептически и считает разговоры об аналитике очередной крупномасштабной рекламной шумихой, существует еще причина, по которой стоит заняться этим делом. По крайней мере аналитика нового поколения продолжает более ранние инициативы в области ИТ. Например, аналитика нового поколения открывает возможности для анализа, который десятилетиями требовался вашей компании для улучшения таких бизнес-решений, как управление сложными событиями в реальном времени, или дает такие новые, революционные возможности для бизнеса, как продвижение продаж мобильным покупателям с учетом их местоположения.

В условиях ограниченности ресурсов оправдан портфельный подход. При этом портфель должен охватывать несколько подразделений предприятия и несколько выполняемых ими функций. Он также должен включать конвергенцию различных источников данных и нескольких инструментов. Если следовать подходу компании Ingram Micro на основе объединительной панели, то часть такой панели, связанную с конвергенцией данных, можно получить, сочетая традиционные источники информации с новыми источниками данных. Традиционные источники информации включают структурированные данные транзакций из систем планирования ресурсов предприятия (ERP) и управления взаимоотношениями с клиентами (CRM). Новые источники данных содержат текстовую информацию из социальных медиа, записей маршрута перемещения пользователя по веб-сайту, веб-журналов, датчиков радиочастотной идентификации (RFID) и других форм неструктурированной и (или) разрозненной информации.

Часть объединительной панели, связанная с инструментами аналитики, создается на основе широкой доступности новых инструментов и инфраструктуры: мобильных устройств; усовершенствованных систем in-memory; улучшенных пользовательских интерфейсов для поиска; значительно более совершенных технологий визуализации; более эффективного распознавания характеристик, оптимизации и аналитического программного обеспечения; а также благодаря использованию облачных технологий для хранения и обработки информации.

В понимании того, что остается неизменным, а что является новым, содержится ключ к получению преимуществ от использования аналитики нового поколения. Но даже для того, что остается неизменным, требуются дополнительные инвестиции.

Разработка стратегического плана для аналитики нового поколения

ИТ-директор всегда должен начинать с разработки стратегического плана. Кент Кушар из компании E. & J. Gallo Winery называет специальный план для аналитики данных стратегическим планом для «информационной ткани предприятия», ссылаясь на перекрестные потоки данных, образующие характерный узор. Важной составляющей этой ткани является идентификация использования и пользователей, которые обладают максимальным потенциалом для обеспечения окупаемости затрат. Искать возможности такой окупаемости необходимо в местах, где компания сталкивалась с трудностями, где завоевывает позиции традиционная или нетрадиционная конкуренция и где нет доступных данных либо они до сих пор не были детальными.

Стратегический план должен включать необходимость наличия способных аналитиков данных и технологии, в которую необходимо сделать инвестиции, например, аппаратное и программное обеспечение, пользовательские инструменты, структурированные и неструктурированные источники данных, возможности отчетности и визуализации, а также увеличение емкости сетей для перемещения больших объемов данных. Процесс стратегического планирования обеспечивает несколько преимуществ – он обновляет базу знаний ИТ-подразделения за счет новых возникающих возможностей, а также традиционных и новых поставщиков, и косвенно информирует потенциальных поставщиков о том, что не следует обходить стороной ИТ-директора и соответствующее подразделение. После того как станет известно об открытости каналов для поставщиков, они не заставят себя ждать.

Критерии выбора инструментов могут отличаться в зависимости от организации. Однако основные принципы остаются общими. Инструменты должны эффективно обрабатывать большие объемы данных в течение приемлемого времени отклика, быть удобными для пользователей и групп поддержки ИТ, технически надежными, соответствовать стандартам безопасности и иметь доступную цену.

Каждое новое устройство и инструмент может стоить несколько миллионов долларов, и еще в несколько миллионов может обойтись оказание поддержки. Хорошая новость заключается в том, что некоторые инструменты и виды инфраструктуры можно арендовать через облако, а затем протестировать до момента демонстрации концепциями и суперпользователями свой потенциал. «Все это необязательно выполнять внутри компании на дорогих вычислительных платформах, – говорит Ашвин Ранган из компании Edwards Lifesciences. – Решение можно перебросить в облако... без огромных инвестиций в капиталоемкое оборудование».

После утверждения стратегии ИТ-директора могут начать обновление внутренних возможностей ИТ-подразделения. В первую очередь ИТ-отдел должен обеспечить предоставление новых данных, инструментов и инфраструктуры, а затем убедиться, что квалификация группы специалистов ИТ соответствует скорости новых инструментов и возможностей. Например, ИТ-подразделение компании E. & J. Gallo Winery в последнее время вложило значительные средства в новые устройства, системную архитектуру, инструменты извлечения, преобразования и загрузки данных (ETL) и способы написания запросов SQL, а затем начало объединять неструктурированные данные с традиционными структурированными данными о потребителях.

Предоставление данных, инструментов и инфраструктуры

Способные работники, инструменты и инфраструктура – вот необходимые предварительные условия для аналитики данных. В аналитике нового поколения ИТ-директора и их деловые партнеры изменяют или дополняют следующее:

  • источники данных – с целью включения в них традиционной структурированной информации предприятия в таких основных системах, как ERP, CRM, автоматизированная система управления производственными процессами и цепочка поставок, а также новых источников, таких как обобщенные данные (точки продаж, данные агентства Nielsen и т. д.) и неструктурированные данные из социальных медиа и других источников. И все это без ущерба для целостности производственных систем или их данных и при эффективном управлении архивами данных;
  • устройства – с целью включения в них возможностей более быстрой обработки данных и усовершенствованного кэширования на основе технологии in-memory. Кэширование на основе технологии in-memory значительно улучшает время цикла, позволяя получать аналитическую информацию согласно характерным особенностям мышления человека и на более близкой к нему скорости;
  • программное обеспечение – с целью включения в него новых инструментов управления данными, анализа, отчетности и визуализации, причем скорее всего нескольких инструментов, каждый из которых настроен под определенные возможности;
  • архитектуру данных и гибкие метаданные – для обеспечения нескольких потоков различных типов данных, хранящихся в различных базах данных. В этой среде архитектура на основе единой базы данных является неработоспособной;
  • стратегию облачных вычислений, учитывающую требования обновленных и расширенных возможностей аналитики и способы наилучшего задействования как внешних, так и внутренних ресурсов. Необходимо определить ожидания клиентов в отношении уровня обслуживания, чтобы обеспечить постоянное подключение и доступность этих расширенных источников актуальных данных в реальном времени.

Принятие аналитики нового поколения предоставляет ИТ-подразделению возможность дополнять и обновлять существующие возможности компании. По словам Кента Кушара, недавние инвестиции ИТ-подразделения компании E. & J. Gallo Winery являются продолжением ее планов 25-летней давности, реализация которых в то время ограничивалась недостаточной доступностью данных и соответствующих инструментов.

Конечно, каждое изменение требует нового ответа от ИT-подразделения, и каждое изменение ставит его перед вечной дилеммой – как проявлять избирательный подход в отношении инвестиций (для экономии средств) и одновременно обеспечить получение максимально обширных и разнообразных возможностей, которые позволят более широкому кругу людей создавать аналитическую информацию практически из любого источника.

Обновление возможностей ИТ: эффективное использование облачного потенциала

После принятия стратегического плана и предоставления инструментов следующим обязательным предварительным условием является обеспечение готовности ИТ-подразделения к выполнению своей новой или расширенной работы. Часть такой подготовки заключается в изучении инструментов, необходимых группе для принятия обязательств относительно поставщиков, консультантов и исследователей.

ИТ-директор должен рассмотреть возможность ряда организационных инвестиций для увеличения основных человеческих ресурсов в ИТ-подразделении. Ведь после начала активной работы бизнес-пользователей оно должно быть готово обеспечить возросшие потребности в технической поддержке. ИT-подразделению понадобятся новые навыки и возможности, в том числе:

  • более широкий доступ ко всем соответствующим типам данных, включая данные из транзакционных систем и новых источников;
  • более широкое использование нетрадиционных ресурсов, например, услуг для анализа больших массивов данных;
  • возможное создание специализированных баз данных и хранилищ данных;
  • компетентность в новых средствах и методах, например, устройствах баз данных, столбцовых и строковых базах данных, методах сжатия и платформах NoSQL;
  • поддержка в использовании инструментов отчетности и визуализации;
  • обновленные подходы для мобильного доступа к данным и аналитическим результатам;
  • новые правила и подходы к безопасности данных;
  • расширенные услуги службы поддержки.

Без параллельных инвестиций в навыки владения ИТ инвестиции в инструменты и инфраструктуру могут не принести результатов, заставляя разочарованных пользователей искать помощи извне. Например, без современных методов сжатия и обработки возникнет серьезная проблема с производительностью, поскольку базы данных становятся все более крупными и разнообразными. Это является проблемой ИТ-подразделения, которую не смогут предвидеть пользователи. Однако в результате может возникнуть негативный опыт работы, который вынудит обращаться к третьим сторонам, решившим этот вопрос (даже если пользователи не знали, в чем заключалась проблема).

Значительная часть персонала ИТ-подразделения будет рада перспективе изучить новые инструменты и поддержку новых возможностей, даже если первая реакция отразит беспокойство относительно любой дополнительной работы. ИТ-директора должны возглавить эту эволюцию и стать источником инноваций и новых тенденций в области аналитики, поощрять принятие новых технологий, проявлять мужество, необходимое для новых инвестиций, демонстрировать доверие к группам ИТ-специалистов и пользователей, а также обеспечить соответствие реализуемых мероприятий принятой стратегии.

Заключение

Аналитика данных уже не является непонятной наукой для специалистов, живущих «в башне из слоновой кости». Все больше возможностей аналитики становятся доступными для все более значительного числа людей. Благодаря аналитике нового поколения бизнес-пользователи освободились от прежних ограничений и находят более простые, быстрые и менее дорогостоящие ответы на свои вопросы. Разработка глубокой, действенной аналитики является необходимым навыком для каждого специалиста по работе с информацией, исследователя, потребителя, преподавателя и учащегося. Такая аналитика порождена самим миром, в котором ценится более быстрое понимание информации, а для максимальной эффективности зачастую информацию необходимо получать в реальном времени. Данные, получаемые в реальном времени, требуют анализа информации в таком же режиме и не терпят выводов, сделанных в последнем квартале, прошлом месяце, на прошлой неделе или даже вчера.

Обеспечение продуктивного использования информационных инструментов не является новой обязанностью для ИТ-директора. Однако аналитика нового поколения расширяет эту обязанность, и порой в очень значительной степени. Выполнение такой обязанности требует от ИТ-директора партнерских отношений с отделами кадров, продаж и другими функциональными подразделениями предприятия. Это должно помочь определить профессиональную пригодность специалистов по работе с информацией к аналитической работе и принятию на себя ответственности за их успех. ИТ-директор становится одновременно формальным и неформальным учителем и образцом для возрастающего числа инженеров по работе с данными.

Несомненно, ИТ-подразделение должно сыграть свою роль в планировании и предоставлении исходных благоприятных возможностей, а также решать вопросы управления, рисков и соответствия требованиям. Однако, как никогда ранее, аналитика данных открывает перед ИТ-директором возможность перенести свою деятельность из ЦОД в руководство компании. Для ИТ-директора это – шанс доказать свое информационное лидерство.


© 1998-2023 Дмитрий Рябых