CENTRO DE FORMACIÓN
MODALIDAD
- Presencial
DURACIÓN
- 21 horas
LUGAR DE IMPARTICIÓN
- Aula Virtual
DOCENTES
- No disponible
Al final de este curso, los participantes podrán:
- Configurar el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python.
- Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop.
- Aprender cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes.
- Explorar las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume).
- Construir sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google.
- Utilizar Apache Mahout para escalar algoritmos de aprendizaje de máquina.
Introduction
- Overview of Spark and Hadoop features and architecture
- Understanding big data
- Python programming basics
Getting Started
- Setting up Python, Spark, and Hadoop
- Understanding data structures in Python
- Understanding PySpark API
- Understanding HDFS and MapReduce
Integrating Spark and Hadoop with Python
- Implementing Spark RDD in Python
- Processing data using MapReduce
- Creating distributed datasets in HDFS
Machine Learning with Spark MLlib
Processing Big Data with Spark Streaming
Working with Recommender Systems
Working with Kafka, Sqoop, Kafka, and Flume
Apache Mahout with Spark and Hadoop
Troubleshooting
Summary and Next Steps
Otros cursos bonificables de NobleProg:
¡Bonifica este curso!
Nosotros nos encargamos de gestionar la bonificación de estos cursos. Para información sobre la inscripción, CONTACTA CON EL CENTRO.