.

Hadoop: HDFS

Área: Big Data - Sub Área: Machine Learning

Apache Hadoop es un conjunto de aplicaciones que permiten el procesamiento distribuido de gran cantidad de datos, a través de clústeres de computadores, usando modelos de programación simples. Como tal se ha convertido en una herramienta clave para la revolución del Big Data. Apache Hadoop está conformado por distintos componentes, de los cuales destacan MapReduce y HDFS. Es a través de una configuración distribuida en varias máquinas, que Apache Hadoop nos permite procesar grandes cantidades de datos, datos a los cuales se puede acceder de forma rápida y segura gracias al sistema que ofrece HDFS

Contenidos


  • ¿Qué es HDFS?

  • Características

  • Tamaño de bloque

  • Arquitectura

  • Metadatos y Log de operaciones

  • Nodo Secundario

  • Replicación de datos

  • Topología de red

  • Conclusión

Descargar White Paper

Autorizo a BSG Institute, para que mi informacion de datos personales sea almacenada en base de datos Ver más