Funcionalidades de las capas de arquitectura de referencia de Big Data

En mi último post , hablamos sobre el análisis del problema empresarial y los pasos básicos para diseñar la Arquitectura de Big Data. Hoy voy a hablar sobre diferentes capas de la Arquitectura Big Data y sus funcionalidades.

Capas lógicas de la arquitectura de referencia de Big Data

Detrás de la arquitectura de big data, la idea central es documentar una base adecuada de arquitectura, infraestructura y aplicaciones. En consecuencia, esto permite a las empresas utilizar big data de forma más eficaz a diario.

Es creado por arquitectos / diseñadores de big data antes de implementar físicamente una solución. La creación de una arquitectura de big data generalmente requiere comprender la empresa / organización y sus necesidades de big data. Por lo general, las arquitecturas de big data describen los componentes de hardware y software que son necesarios para cumplir con la solución de big data. Los documentos de arquitectura de big data también pueden describir protocolos para compartir datos, integraciones de aplicaciones y seguridad de la información.

Más información:  Guía para principiantes de análisis de macrodatos

También implica interconectar y organizar los recursos existentes para satisfacer las necesidades de big data.

Las capas lógicas de la arquitectura de referencia son las siguientes:

  • Identificación de la fuente de datos: saber de dónde provienen estos datos.

La creación de perfiles de origen es uno de los pasos más importantes para decidir la arquitectura o el big data. Implica identificar diferentes sistemas fuente y categorizarlos, según su naturaleza y tipo.

Puntos a tener en cuenta al elaborar perfiles de fuentes de datos:

  1. Identificar sistemas de fuentes internas y externas.
  2. Supuesto de alto nivel para la cantidad de datos ingeridos de cada fuente
  3. Identificar el mecanismo utilizado para obtener datos: empujar o tirar
  4. Determine el tipo de fuente de datos: base de datos, archivo, servicio web, transmisiones, etc.
  5. Determine el tipo de datos: estructurados, semiestructurados o no estructurados
  • Adquisición y estrategia de ingestión de datos : proceso para ingresar datos en el sistema.

La ingestión de datos tiene que ver con la extracción de datos de las fuentes mencionadas anteriormente. Estos datos se almacenan en el almacenamiento y luego se transforman para su posterior procesamiento.

Puntos a considerar:

  1. Determinar la frecuencia con la que se ingerirían los datos de cada fuente.
  2. ¿Es necesario cambiar la semántica de los datos?
  3. ¿Se requiere alguna validación o transformación de datos antes de la ingestión (preprocesamiento)?
  4. Separe las fuentes de datos según el modo de ingestión: por lotes o en tiempo real
  • Almacenamiento de datos : la instalación donde se almacenarán realmente los grandes datos.

Uno debería poder almacenar grandes cantidades de datos de cualquier tipo y debería poder escalar según sea necesario. También debemos considerar el número de IOPS (operaciones de entrada y salida por segundo) que puede proporcionar. El sistema de archivos distribuido Hadoop es el marco de almacenamiento más utilizado en el mundo de Big Data, otros son los almacenes de datos NoSQL: MongoDB, HBase, Cassandra, etc.

Aspectos a tener en cuenta al planificar la metodología de almacenamiento:

  1. Tipo de datos (históricos o incrementales)
  2. Formato de datos (estructurados, semiestructurados y no estructurados)
  3. Requisitos de compresión
  4. Frecuencia de datos entrantes
  5. Patrón de consulta sobre los datos
  6. Consumidores de los datos
  • Procesamiento de datos : herramientas que proporcionan análisis sobre macrodatos.

No solo la cantidad de datos que se almacenan, sino que el procesamiento también se ha multiplicado.

Los datos a los que se accedía con frecuencia anteriormente se almacenaban en RAM dinámicas. Pero ahora, se almacena en varios discos en varias máquinas conectadas a través de la red debido al gran volumen. Por lo tanto, en lugar de recopilar fragmentos de datos para su procesamiento, los módulos de procesamiento se llevan al big data. Por lo tanto, se reduce significativamente la E / S de la red. La metodología de procesamiento se basa en los requisitos comerciales. Se puede clasificar en Lotes, en tiempo real o Híbrido según el SLA.

  1. Procesamiento por lotes  : el lote recopila la entrada durante un intervalo de tiempo específico y ejecuta transformaciones en ella de forma programada. La carga de datos históricos es una operación por lotes típica
  2. Procesamiento en tiempo real: el procesamiento en tiempo real implica la ejecución de transformaciones a medida que se adquieren los datos.
  3. Procesamiento híbrido : es una combinación de necesidades de procesamiento por lotes y en tiempo real.
  • Consumo / utilización de datos : usuarios / servicios que utilizan los datos analizados.

Esta capa consume la salida proporcionada por la capa de procesamiento. Los diferentes usuarios, como el administrador, los usuarios comerciales, el proveedor, los socios, etc. pueden consumir datos en diferentes formatos. El motor de recomendaciones puede consumir la salida del análisis o los procesos comerciales se pueden activar en función del análisis.

Las diferentes formas de consumo de datos son:

  1. Exportar conjuntos de datos : puede haber requisitos para la generación de conjuntos de datos de terceros. Los conjuntos de datos se pueden generar mediante la exportación de colmena o directamente desde HDFS.
  2. Informes y visualización : diferentes herramientas de exploración de informes y visualización se conectan a Hadoop mediante la conectividad JDBC / ODBC a Hive.
  3. Exploración de datos: el científico de datos puede crear modelos y realizar una exploración profunda en un entorno de caja de arena. Sandbox puede ser un clúster separado (enfoque recomendado) o un esquema separado dentro del mismo clúster que contiene un subconjunto de datos reales.
  4. Consultas ad hoc : las consultas ad hoc o interactivas se pueden admitir mediante el uso de Hive, Impala o Spark SQL.

Lea también:  Big Data: ¿Una pesadilla futura?

Capas funcionales de la arquitectura de Big Data:

Podría haber una forma más de definir la arquitectura, es decir, a través de la división de funcionalidad. Pero las categorías de funcionalidad podrían agruparse en la capa lógica de la arquitectura de referencia, por lo que la arquitectura preferida es la que se realiza con capas lógicas.

La estratificación basada en las funcionalidades es la siguiente:

  1. Fuentes de datos:

El análisis de todas las fuentes de las que una organización recibe datos y que podrían ayudar a la organización a tomar sus decisiones futuras debe incluirse en esta categoría. Las fuentes de datos enumeradas aquí son independientes del hecho de que los datos estén estructurados, no estructurados o semiestructurados.

  1. Extracción de datos:

Antes de que pueda almacenar, analizar o visualizar sus datos, debe tener algunos. La extracción de datos consiste en tomar algo que no está estructurado, como una página web, y convertirlo en una tabla estructurada. Una vez que lo haya estructurado, puede manipularlo de muchas formas, utilizando las herramientas que se describen a continuación, para encontrar información.

  1. Almacenamiento de datos:

La necesidad básica al trabajar con big data es pensar en cómo almacenar esos datos. Parte de cómo Big Data obtuvo la distinción como “GRANDE” es que se volvió demasiado para que lo manejen los sistemas tradicionales. Un buen proveedor de almacenamiento de datos debería ofrecerle una infraestructura en la que ejecutar todas sus otras herramientas de análisis, así como un lugar para almacenar y consultar sus datos.

  1. Limpieza de datos:

Un paso previo necesario antes de que realmente comencemos a extraer los datos para obtener información. Siempre es una buena práctica crear un conjunto de datos limpio y bien estructurado. Los conjuntos de datos pueden tener todas las formas y tamaños, especialmente cuando provienen de la web. Elija una herramienta según sus requisitos de datos.

  1. Procesamiento de datos:

La minería de datos es el proceso de descubrir información dentro de una base de datos. El objetivo de la minería de datos es tomar decisiones y hacer predicciones sobre los datos que tiene a mano. Elija un software que le brinde las mejores predicciones para todo tipo de datos y le permita crear sus propios algoritmos para extraer los datos.

  1. Análisis de datos:

Si bien la minería de datos se trata de examinar sus datos en busca de patrones previamente no reconocidos, el análisis de datos se trata de desglosar esos datos y evaluar el impacto de esos patrones en el tiempo. La analítica consiste en hacer preguntas específicas y encontrar las respuestas en los datos. ¡Incluso puede hacer preguntas sobre lo que sucederá en el futuro!

  1. Visualización de datos:

Las visualizaciones son una forma fácil y brillante de transmitir conocimientos de datos complejos. Y la mejor parte es que la mayoría de ellos no requieren codificación. Las empresas de visualización de datos harán que sus datos cobren vida. Parte del desafío para cualquier científico de datos es transmitir la información de esos datos al resto de su empresa. Las herramientas pueden ayudarlo a crear gráficos, mapas y otros gráficos similares a partir de sus conocimientos de datos.

  1. Integración de datos:

Las plataformas de integración de datos son el pegamento entre cada programa. Conectan las diferentes inferencias de las herramientas con otros softwares. Puede compartir los resultados de sus herramientas de visualización directamente en Facebook a través de estas herramientas.

  1. Idiomas de datos:

Habrá momentos en su carrera de datos en los que una herramienta simplemente no será suficiente. Si bien las herramientas de hoy son cada vez más poderosas y fáciles de usar, a veces es mejor codificarlas usted mismo. Hay diferentes lenguajes que le ayudan en diferentes aspectos como la computación estadística y los gráficos. Estos lenguajes podrían funcionar como un complemento para la minería de datos y los softwares estadísticos.

Funcionalidades de las capas de arquitectura de referencia de Big Data

La clave a recordar al diseñar la Arquitectura de Big Data es:

  • Dinámica de uso : hay una serie de escenarios, como se ilustra en el artículo, que deben tenerse en cuenta al diseñar la arquitectura: forma y frecuencia de los datos, tipo de datos, tipo de procesamiento y análisis requeridos.
  • Gran cantidad de tecnologías: la  proliferación de herramientas en el mercado ha generado mucha confusión sobre qué usar y cuándo, existen múltiples tecnologías que ofrecen características similares y afirman ser mejores que las demás.

Sé que estaría pensando en diferentes herramientas a utilizar para crear una solución de Big Data totalmente a prueba. Bueno, en mis próximas publicaciones sobre Big Data, cubriría algunas de las mejores herramientas para lograr diferentes tareas en la arquitectura de Big Data .



Leave a Comment

¿Puede la IA luchar con un número cada vez mayor de ataques de ransomware?

¿Puede la IA luchar con un número cada vez mayor de ataques de ransomware?

Los ataques de ransomware van en aumento, pero ¿puede la IA ayudar a lidiar con el último virus informático? ¿Es la IA la respuesta? Lea aquí, sepa que la IA es una bendición o una perdición

ReactOS: ¿Es este el futuro de Windows?

ReactOS: ¿Es este el futuro de Windows?

ReactOS, un sistema operativo de código abierto y gratuito, está aquí con la última versión. ¿Puede satisfacer las necesidades de los usuarios de Windows de hoy en día y acabar con Microsoft? Averigüemos más sobre este estilo antiguo, pero una experiencia de sistema operativo más nueva.

Manténgase conectado a través de la aplicación de escritorio WhatsApp 24 * 7

Manténgase conectado a través de la aplicación de escritorio WhatsApp 24 * 7

Whatsapp finalmente lanzó la aplicación de escritorio para usuarios de Mac y Windows. Ahora puede acceder a Whatsapp desde Windows o Mac fácilmente. Disponible para Windows 8+ y Mac OS 10.9+

¿Cómo puede la IA llevar la automatización de procesos al siguiente nivel?

¿Cómo puede la IA llevar la automatización de procesos al siguiente nivel?

Lea esto para saber cómo la Inteligencia Artificial se está volviendo popular entre las empresas de pequeña escala y cómo está aumentando las probabilidades de hacerlas crecer y dar ventaja a sus competidores.

La actualización complementaria de macOS Catalina 10.15.4 está causando más problemas que resolver

La actualización complementaria de macOS Catalina 10.15.4 está causando más problemas que resolver

Recientemente, Apple lanzó macOS Catalina 10.15.4, una actualización complementaria para solucionar problemas, pero parece que la actualización está causando más problemas que conducen al bloqueo de las máquinas Mac. Lee este artículo para obtener más información

13 Herramientas comerciales de extracción de datos de Big Data

13 Herramientas comerciales de extracción de datos de Big Data

13 Herramientas comerciales de extracción de datos de Big Data

¿Qué es un sistema de archivos de diario y cómo funciona?

¿Qué es un sistema de archivos de diario y cómo funciona?

Nuestra computadora almacena todos los datos de una manera organizada conocida como sistema de archivos de diario. Es un método eficiente que permite a la computadora buscar y mostrar archivos tan pronto como presiona buscar.

Singularidad tecnológica: ¿un futuro lejano de la civilización humana?

Singularidad tecnológica: ¿un futuro lejano de la civilización humana?

A medida que la ciencia evoluciona a un ritmo rápido, asumiendo muchos de nuestros esfuerzos, también aumentan los riesgos de someternos a una singularidad inexplicable. Lea, lo que la singularidad podría significar para nosotros.

Una mirada a 26 técnicas analíticas de Big Data: Parte 1

Una mirada a 26 técnicas analíticas de Big Data: Parte 1

Una mirada a 26 técnicas analíticas de Big Data: Parte 1

El impacto de la inteligencia artificial en la atención médica 2021

El impacto de la inteligencia artificial en la atención médica 2021

La IA en la salud ha dado grandes pasos desde las últimas décadas. Por tanto, el futuro de la IA en el sector sanitario sigue creciendo día a día.