Bibliothèque de ressources

Exécuter un Job sur Spark

Apprenez à créer un Job Big Data Batch à l'aide du framework Spark, ainsi qu'à lire des données depuis HDFS, à les trier et à les afficher dans la console.

Regarder

Tests ETL – Présentation générale

Les tests ETL sont appliqués tout au long du processus ETL pour valider, vérifier et garantir la qualité des données tout en évitant la duplication des enregistrements et la perte de données. Ce document vous propose de découvrir les huit étapes des tests ETL, les neuf types de tests ETL, les défis les plus courants, comment identifier les outils les mieux adaptés à vos besoins, etc.

En savoir plus

Hadoop – Présentation générale

Hadoop est un framework Java open source utilisé pour le stockage et traitement des big data. Les données sont stockées sur des serveurs standard peu coûteux configurés en clusters. Le système de fichiers distribué Hadoop supporte des fonctionnalités de traitement concurrent et de tolérance aux incidents.

En savoir plus

MapReduce – Présentation générale

MapReduce est un modèle de programmation disponible dans les environnements Hadoop qui est utilisé pour accéder aux big data stockées dans le Hadoop File System (HDFS). La fonction map analyse les entrées, les paires et les processus et elle produit un autre ensemble de paires intermédiaires en sortie.

En savoir plus

ELT ou ETL : Définir la différence

La différence entre l’ETL et l’ELT réside dans le fait que les données sont transformées en informations décisionnelles et dans la quantité de données conservée dans les entrepôts. Découvrez ce que signifie ces différences pour les données décisionnelles, la meilleure approche pour votre entreprise et pourquoi le Cloud est un élément décisif.

En savoir plus

Rapport O’Reilly : Déployer Hadoop dans le Cloud

Le déploiement d’Hadoop dans les services de Cloud public ne s’arrête pas à la simple location des machines. Le choix et la configuration de la distribution Hadoop adaptée à vos besoins vous permettent d'exploiter dles fonctionnalités et la flexibilité de votre service Cloud pour optimiser vos projets Big Data.

TÉLÉCHARGER

L’intégration de données pour les nuls

Quand il s’agit d’intégration de données, il n’y a pas de compromis possible. Vous avez besoin d’un outil qui s’appuie sur des standards ouverts, qui intègre n’importe quelle source de données et qui réponde à vos besoins d’intégration de tous types ; intégration de données, profilage de données, Big Data, intégration d’applications etc.

Regarder