IMG_2957 ©Aurélie Cenno-2.jpg

Durant cette formation "Big Data on AWS" vous découvrirez comment mettre en oeuvre les solutions AWS dans un écosystème Big Data.

Pour toute demande concernant nos formations, contactez Audrey au 07 57 41 91 76.

PROCHAINES DATES

23 au 25 octobre (Paris)

INFORMATIONS

Durée : 3 jours

Horaire : 9H30-17H30

Lieu : Paris

Tarif : 2090 € HT

 

 

PROGRAMME

JOUR 1

  • Présentation du Big data

  • Injection Big data et transfert de données

  • Streaming Big data avec Amazon Kinesis

  • Lab 1: Streamer et traiter des logs d’un serveur Apache avec Amazon Kinesis

  • Solutions de stockage Big data

  • Analyses et process Big data

  • Lab 2: Utiliser Amazon Athena pour analyser des données de logs

JOUR 2

  • Apache Hadoop et Amazon EMR

  • Lab 3: Stocker et requêter la donnée sur Amazon DynamoDB

  • Utiliser Amazon EMR

  • Frameworks de programmation Hadoop

  • Lab 4: Traiter des logs server avec Hive sur Amazon EMR

  • Interfaces Web sur Amazon EMR

  • Lab 5: Exécuter des scripts Pig dans Hue sur Amazon EMR

  • Apache Spark sur Amazon EMR

  • Lab 6: Traiter des données (Taxi New York) en utilisant Spark sur Amazon EMR

JOUR 3

  • Utiliser AWS Glue pour automatiser des workloads ETL

  • Amazon Redshift et le Big data

  • Sécuriser vos déploiements Amazon

  • Gérer les coûts de la donnée

  • Visualisation et orchestration du Big data

  • Lab 7: Utiliser TIBCO Spotfire pour visualiser la donnée

  • Modèles de designs Big Data

 

OBJECTIFS

  • Mettre en forme les solutions AWS dans un écosystème Big Data

  • Implémenter Amazon EMR pour Apache Hadoop

  • Identifier les composants d’un cluster EMR, lancer et configurer un cluster

  • Utiliser les frameworks pour Amazon EMR (Hive, Pig)

  • Utiliser l’analyse “En-mémoire” avec Spark sur Amazon EMR

  • Choisir les options de stockage appropriées

  • Identifier les bénéfices de l’utilisation d’Amazon Kinesis pour de l’analyse temps-réel

  • Utiliser Amazon Redshift pour efficacement stocker et analyser la donnée

  • Comprendre et gérer les coûts et la sécurité pour une solution Big data

  • Identifier les options d’injection, de transfert et de compression de la donnée

  • Utilisation de Amazon Athena, Amazon Glue et Amazon QuickSight

  • Utiliser Amazon Pipeline pour orchestrer les workflows de données

Public visé

  • Responsable du design et de l’implémentation des solutions Big data

  • Data scientists et Data analysts

RECOMMANDATIONS

  • Être à l’aise avec les technologies Big Data (HADOOP, HDFS, SQL/NoSQL querying)

  • Avoir une expérience sur les technologies Big data et une connaissance basique du Data warehousing, des bases de données et des concepts Big data

  • Connaissance pratique des services principaux de AWS

  • Avoir suivi la formation “AWS Technical essentials

 

 

CONTACTEZ audrey POUR PLUS d’INFORMATION sur cette formation

 
D2SI_Audrey_Formation.png