Функциональные возможности уровней эталонной архитектуры больших данных

В моем последнем посте мы обсуждали анализ бизнес-проблемы и основные шаги по проектированию архитектуры больших данных. Сегодня я собираюсь поговорить о различных уровнях архитектуры больших данных и их функциях.

Логические уровни эталонной архитектуры больших данных

Основная идея архитектуры больших данных состоит в том, чтобы задокументировать правильную основу архитектуры, инфраструктуры и приложений. Следовательно, это позволяет предприятиям более эффективно использовать большие данные в повседневной жизни.

Он создается проектировщиками / архитекторами больших данных перед физической реализацией решения. Создание архитектуры больших данных обычно требует понимания бизнеса / организации и ее потребностей в больших данных. Как правило, архитектуры больших данных определяют аппаратные и программные компоненты, необходимые для реализации решения для больших данных. Документы по архитектуре больших данных могут также описывать протоколы для обмена данными, интеграции приложений и информационной безопасности.

Дополнительная информация:  Руководство по аналитике больших данных для новичков

Это также влечет за собой взаимосвязь и организацию существующих ресурсов для удовлетворения потребностей в больших данных.

Ниже приведены логические уровни эталонной архитектуры:

  • Идентификация источника данных: знание источника этих данных.

Профилирование источника - один из самых важных шагов в выборе архитектуры или больших данных. Он включает в себя определение различных исходных систем и их категоризацию в зависимости от их природы и типа.

Вопросы, которые следует учитывать при профилировании источников данных:

  1. Определите системы внутренних и внешних источников.
  2. Допущение высокого уровня для количества данных, полученных из каждого источника
  3. Определите механизм, используемый для получения данных - push или pull
  4. Определите тип источника данных - база данных, файл, веб-сервис, потоки и т. Д.
  5. Определите тип данных - структурированные, полуструктурированные или неструктурированные.
  • Стратегия приема и сбора данных : процесс ввода данных в систему.

Прием данных - это извлечение данных из вышеупомянутых источников. Эти данные хранятся в хранилище, а затем преобразуются для дальнейшей обработки.

Следует учитывать:

  1. Определите частоту, с которой данные будут поступать из каждого источника.
  2. Есть ли необходимость в изменении семантики данных?
  3. Требуется ли проверка или преобразование данных перед загрузкой (предварительная обработка)?
  4. Разделите источники данных в зависимости от режима приема - пакетного или в режиме реального времени.
  • Хранение данных : объект, в котором фактически будут храниться большие данные.

Следует иметь возможность хранить большие объемы данных любого типа и масштабироваться при необходимости. Мы также должны учитывать количество IOPS (операций ввода-вывода в секунду), которое он может обеспечить. Распределенная файловая система Hadoop является наиболее часто используемой средой хранения в мире больших данных, другие - хранилища данных NoSQL - MongoDB, HBase, Cassandra и т. Д.

Что следует учитывать при планировании методологии хранения:

  1. Тип данных (исторические или инкрементальные)
  2. Формат данных (структурированный, полуструктурированный и неструктурированный)
  3. Требования к сжатию
  4. Частота поступления данных
  5. Шаблон запроса к данным
  6. Потребители данных
  • Обработка данных : инструменты, обеспечивающие анализ больших данных.

Многократно увеличился не только объем хранимых данных, но и их обработка.

Ранее часто используемые данные хранились в динамической оперативной памяти. Но теперь он хранится на нескольких дисках на нескольких машинах, подключенных через сеть из-за большого объема. Таким образом, вместо того, чтобы собирать блоки данных для обработки, модули обработки переносятся на большие данные. Таким образом, значительно сокращается сетевой ввод-вывод. Методология обработки определяется бизнес-требованиями. Его можно разделить на пакетный, в реальном времени или гибридный на основе SLA.

  1. Пакетная обработка  - пакетная обработка собирает входные данные в течение определенного интервала времени и выполняет преобразования по расписанию. Загрузка исторических данных - это типичная пакетная операция
  2. Обработка в реальном времени - обработка в реальном времени включает в себя выполнение преобразований по мере получения данных.
  3. Гибридная обработка - это сочетание потребностей как пакетной обработки, так и обработки в реальном времени.
  • Потребление / использование данных : пользователи / службы, использующие проанализированные данные.

Этот уровень потребляет вывод, предоставляемый уровнем обработки. Различные пользователи, такие как администратор, бизнес-пользователи, поставщик, партнеры и т. Д., Могут использовать данные в разных форматах. Результат анализа может использоваться механизмом рекомендаций, или бизнес-процессы могут запускаться на основе анализа.

Различные формы потребления данных:

  1. Экспорт наборов данных - могут быть требования для создания сторонних наборов данных. Наборы данных могут быть созданы с помощью экспорта куста или непосредственно из HDFS.
  2. Отчетность и визуализация - различные инструменты для создания отчетов и визуализации подключаются к Hadoop с помощью подключения JDBC / ODBC к hive.
  3. Исследование данных - специалист по данным может создавать модели и проводить глубокие исследования в среде песочницы. Песочница может быть отдельным кластером (рекомендуемый подход) или отдельной схемой в том же кластере, которая содержит подмножество фактических данных.
  4. Специальные запросы - специальные или интерактивные запросы могут поддерживаться с помощью Hive, Impala или Spark SQL.

Читайте также:  Большие данные: кошмар будущего?

Функциональные уровни архитектуры больших данных:

Может быть еще один способ определения архитектуры, то есть через разделение функциональности. Но категории функциональности могут быть сгруппированы вместе в логический уровень эталонной архитектуры, поэтому предпочтительной архитектурой является архитектура, созданная с использованием логических уровней.

Уровни, основанные на функциональных возможностях, выглядят следующим образом:

  1. Источники данных:

В эту категорию следует включить анализ всех источников, из которых организация получает данные и которые могут помочь организации в принятии ее будущих решений. Перечисленные здесь источники данных не зависят от того, являются ли данные структурированными, неструктурированными или частично структурированными.

  1. Извлечение данных:

Прежде чем вы сможете хранить, анализировать или визуализировать свои данные, вам нужно их иметь. Извлечение данных заключается в том, чтобы взять что-то неструктурированное, например веб-страницу, и превратить это в структурированную таблицу. После того, как вы его структурируете, вы можете манипулировать им всевозможными способами, используя инструменты, описанные ниже, чтобы найти идеи.

  1. Хранилище данных:

Основная необходимость при работе с большими данными - думать, как их хранить. Отчасти большие данные получили звание «БОЛЬШИХ», потому что их стало слишком много для традиционных систем. Хороший поставщик хранилища данных должен предлагать вам инфраструктуру для запуска всех других аналитических инструментов, а также место для хранения и запроса ваших данных.

  1. Очистка данных:

Предварительно необходимый шаг перед тем, как мы действительно начнем добывать данные для понимания. Всегда рекомендуется создавать чистый, хорошо структурированный набор данных. Наборы данных могут иметь любую форму и размер, особенно если они поступают из Интернета. Выберите инструмент в соответствии с вашими требованиями к данным.

  1. Сбор данных:

Интеллектуальный анализ данных - это процесс обнаружения информации в базе данных. Цель интеллектуального анализа данных - принимать решения и делать прогнозы на основе имеющихся у вас данных. Выберите программное обеспечение, которое дает вам лучшие прогнозы для всех типов данных и позволяет создавать собственные алгоритмы для анализа данных.

  1. Аналитика данных:

В то время как интеллектуальный анализ данных - это просеивание ваших данных в поисках ранее нераспознанных шаблонов, анализ данных заключается в разбивке этих данных и оценке воздействия этих шаблонов с течением времени. Аналитика заключается в том, чтобы задавать конкретные вопросы и находить ответы в данных. Вы даже можете задать вопросы о том, что будет в будущем!

  1. Визуализация данных:

Визуализации - это яркий и простой способ передать сложные аналитические данные. И что самое приятное, большинство из них не требует программирования. Компании, занимающиеся визуализацией данных, оживят ваши данные. Отчасти задача любого специалиста по обработке данных - донести информацию, полученную на основе этих данных, до остальной части вашей компании. Инструменты могут помочь вам создавать диаграммы, карты и другую подобную графику на основе ваших аналитических данных.

  1. Интеграция данных:

Платформы интеграции данных являются связующим звеном между каждой программой. Они связывают различные выводы инструментов с другим программным обеспечением. Вы можете поделиться результатами своих инструментов визуализации прямо на Facebook с помощью этих инструментов.

  1. Языки данных:

В вашей карьере в области данных будут времена, когда инструмент просто не справится. Хотя современные инструменты становятся все более мощными и простыми в использовании, иногда лучше просто написать их самостоятельно. Существуют разные языки, помогающие вам в различных аспектах, таких как статистические вычисления и графика. Эти языки могут работать в качестве дополнения к программному обеспечению интеллектуального анализа данных и статистике.

Функциональные возможности уровней эталонной архитектуры больших данных

При проектировании архитектуры больших данных необходимо помнить следующее:

  • Динамика использования : как показано в статье, существует ряд сценариев, которые необходимо учитывать при разработке архитектуры - форма и частота данных, тип данных, тип обработки и необходимая аналитика.
  • Множество технологий.  Распространение инструментов на рынке привело к большой неразберихе в том, что и когда использовать. Существует множество технологий, предлагающих схожие функции и утверждающих, что они лучше других.

Я знаю, что вы подумаете о различных инструментах, которые можно использовать для создания полноценного решения для больших данных. Что ж, в моих следующих статьях о больших данных я расскажу о некоторых лучших инструментах для решения различных задач в архитектуре больших данных .



Leave a Comment

Изучение 26 методов анализа больших данных: часть 1

Изучение 26 методов анализа больших данных: часть 1

Изучение 26 методов анализа больших данных: часть 1

6 невероятных фактов о Nintendo Switch

6 невероятных фактов о Nintendo Switch

Многие из вас знают Switch, который выйдет в марте 2017 года, и его новые функции. Для тех, кто не знает, мы подготовили список функций, которые делают «Switch» обязательным гаджетом.

Технические обещания, которые все еще не выполнены

Технические обещания, которые все еще не выполнены

Вы ждете, когда технологические гиганты выполнят свои обещания? проверить, что осталось недоставленным.

Функциональные возможности уровней эталонной архитектуры больших данных

Функциональные возможности уровней эталонной архитектуры больших данных

Прочтите блог, чтобы узнать о различных уровнях архитектуры больших данных и их функциях самым простым способом.

Как ИИ может вывести автоматизацию процессов на новый уровень?

Как ИИ может вывести автоматизацию процессов на новый уровень?

Прочтите это, чтобы узнать, как искусственный интеллект становится популярным среди небольших компаний и как он увеличивает вероятность их роста и дает преимущество перед конкурентами.

CAPTCHA: как долго она может оставаться жизнеспособным методом различения между человеком и ИИ?

CAPTCHA: как долго она может оставаться жизнеспособным методом различения между человеком и ИИ?

CAPTCHA стало довольно сложно решать пользователям за последние несколько лет. Сможет ли он оставаться эффективным в обнаружении спама и ботов в ближайшем будущем?

Технологическая сингулярность: далекое будущее человеческой цивилизации?

Технологическая сингулярность: далекое будущее человеческой цивилизации?

По мере того, как наука развивается быстрыми темпами, принимая на себя большую часть наших усилий, также возрастает риск подвергнуться необъяснимой сингулярности. Прочтите, что может значить для нас необычность.

Телемедицина и удаленное здравоохранение: будущее уже здесь

Телемедицина и удаленное здравоохранение: будущее уже здесь

Что такое телемедицина, дистанционное здравоохранение и их влияние на будущее поколение? Это хорошее место или нет в ситуации пандемии? Прочтите блог, чтобы узнать мнение!

Вы когда-нибудь задумывались, как хакеры зарабатывают деньги?

Вы когда-нибудь задумывались, как хакеры зарабатывают деньги?

Возможно, вы слышали, что хакеры зарабатывают много денег, но задумывались ли вы когда-нибудь о том, как они зарабатывают такие деньги? Давайте обсудим.

Обновление дополнения к macOS Catalina 10.15.4 вызывает больше проблем, чем решает

Обновление дополнения к macOS Catalina 10.15.4 вызывает больше проблем, чем решает

Недавно Apple выпустила macOS Catalina 10.15.4, дополнительное обновление для исправления проблем, но похоже, что это обновление вызывает больше проблем, приводящих к поломке компьютеров Mac. Прочтите эту статью, чтобы узнать больше