«Цифровая экономика» подразумевает, что все компании умеют работать с большими данными. Однако, по-прежнему, практические примеры внедрения и истории успеха/неуспеха, являются самой ценной информацией для принятия стратегических решений.
Big Data Conference представит участникам те самые компании, которые умеют работать с данными и могут показать на конкретных примерах и реализованных проектах их эффективность.
Количество компаний в России, внедряющих современные методы управления и обработки информации, значительно выросло по сравнению с тем, что фиксировали в своих докладах участники первой конференции Big Data Russia в 2014 году.
Три трека конференции Big Data Conference позволят участникам конференции услышать самые свежие, нигде ранее не показанные кейсы по внедрению технологий работы с большими данными.
- Бизнес-трек и его контент предназначен для собственников бизнеса, менеджеров по развитию, CDO, маркетологов. В его рамках компании представят кейсы анализа данных в разных бизнес-процессах и результаты, отображающие эффективность тех или иных подходов.
- Технологический трек собирает технических специалистов и data scientisits, которые поделятся опытом создания воспроизводимых технических решений для реализации тех или иных бизнес-задач.
- В семинаре научные сотрудники, аспиранты и студенты, работающие над созданием новых подходов к семантическому анализу, машинному обучению и структурированию, обработке и визуализации больших объёмов данных, представят свои работы, которые прошли конкурсный отбор.
Магистрский курс Тёмкина входит в пятерку лучших курсов в области информационных технологий в США, а в 2017 году программа Бостонского университета вошла в топ-10 программ по большим данным. Анатолий представит тему «Большие данные, конфиденциальность и кибербезопасность. Защита информации в век квантовых компьютеров».
Доклад о том, как Москва ищет и находит взаимопонимание с жителями на основе механизмов машинного обучения.
Почему для Big Data сегодня не нужен «космический» бюджет.
Не все инсайт, что красиво визуализировано. Несколько успешных историй поиска и извлечении смысла из больших данных в e-commerce проектах с помощью доступных инструментов визуализации из Google BigQuery .
Как с помощью анализа данных можно выявить лидеров мнений.
Как использовать анализ данных для оценки эффективности расходования бюджетных средств.
Как подготовиться к тому, что через 10 лет машинное обучение станет единственным методом обработки данных.
Как страховые компании трансформируются в мире интернета вещей и меняют рынок в 1 трлн рублей.
Представит кейс использования прогнозной аналитики и больших данных в нефтегазовой индустрии на примере разработки программы диагностического техобслуживания для крупной нефтегазовой компании .
Кейс «Прогнозирование увольнений работников». Может ли предиктивная аналитика успешно применяться в управлении персоналом?
Расскажет историю о том, как с помощью машинного обучения объединить данные из разных источников в один пул, и что потом с ним делать. Покажет, как объединенная информационная система уже сейчас помогает нашим клиентам предупреждать риски и находить возможности роста в FMCG .
Всегда ли BigData – это большой мгновенный успех? Разберемся, почему это не так, на примере кейса Ростелеком.
Расскажет об использовании видеокарт как ускорителей для баз данных.
«У них был логин, пароль, пара гит репозиториев и аккаунт в облаках — и они научились разворачивать DataLake на 10Пб за 4 часа и собирать туда данные».
В докладе поделится опытом алгоритмического и технического проектирования платформы, использующей кластер нейронных сетей (deeplearning4j), обратные индексы (lucene) и REST-веб сервер (jetty) для массового обслуживания диалогов технической поддержки для предсказания вероятных ответов на вопросы клиентов. Особое внимание будет уделено алгоритму работы нейронной сети, осуществляющей нелинейную трансформацию семантических пространств вопросов и ответов.
Решения, принимаемые экспертами на основании собственного опыта и лучших практик рынка, уходят в прошлое. На смену им приходят решения, основанные на результатах анализа данных. И процессы управления персоналом – не исключение. Роман расскажет о том, какие предиктивные модели уже используются в HR технологиях
Watson Data Platform в реальных проектах IBM
Методы обработки данных компьютерной томографии при диагностировании раковых заболеваний
Расскажет про новый уровень BI-систем и аналитики — геймификации больших данных для создания call to action у пользователей
Расскажет про особенности нового открытого алгоритма градиентного бустинга CatBoost и про то, каким компаниям, где и как его можно (и нужно) использовать на практике. Именно градиентный бустинг используется в продакшене крупных компаний, например, для ранжирования результатов поисковой выдачи, задач предсказания погоды и рекомендации контента, а также выигрывает многочисленные соревнования по машинному обучению
Полную программу можно найти на сайте bigdataconf.org
ПРИЁМ НАУЧНЫХ РАБОТ
Прием работ на Научный семинар открыт до 25 августа 2017 года. Отобранные работы будут опубликованы в журнале Journal of Physics: Conference Series (JPCS) и проиндексированы Web of Science и Scopus. Все подробности по ссылке
16 сентября состоятся 3 интенсива по работе с большими данными.
В рамках подготовки к Big Data Conference мы также выпустим AI MAP — карту всех российских компаний и технологий, которые так или иначе связаны с искуственным интеллектом. На мероприятии можно будет вживую нанести свою компанию на большую 5-метровую конструкцию.
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- Пройти курс «Наличка: как использовать, чтобы не нарушить 115-ФЗ»
- 1 Логирование: понятие, механизмы и уровни
- 2 Понимание CAP-теоремы: согласованность, доступность, устойчивость данных
- 3 Как работает веб-скрейпинг и зачем он нужен
- 4 Real-Time Аналитика — что это такое, преимущества анализа данных в реальном времени
ВОЗМОЖНОСТИ
28 января 2025
03 февраля 2025
28 февраля 2025