Big Data Platform

Transformez les Big Data en connaissances fiables.

Soyez rapidement opérationnels avec l’outil Big Data open source numéro un du marché

Talend Big Data Platform simplifie les intégrations complexes et tire parti des avantages d’Apache Spark, de Databricks, de Qubole, d’AWS, de Microsoft Azure, de Snowflake, de Google Cloud Platform et de NoSQL ; la solution propose des fonctionnalités intégrées de qualité des données pour permettre à votre entreprise de transformer les Big Data en connaissances fiables. Exploitez toute la puissance et l’évolutivité de votre framework Big Data grâce à la plateforme phare pour l’intégration et la qualité des données dans Spark, le Cloud et sur site.

Integrate data sources and run on the leading data platforms

Fonctionnalités Big Data Platform

Licences et support technique

  • Licences par abonnement avec garantie et indemnisation
  • 2 licences gratuites Talend Data Preparation et 2 licences gratuites Talend Data Stewardship pour toute souscription à Talend
  • Disponible sous forme de service cloud et de logiciel téléchargeable
+ Voir plus

Outils de conception et de productivité

  • Génère le code natif (Spark et MapReduce) en batch
  • Mappage visuel pour les jobs JSON, XML et EDI complexes dans Spark
  • Conception des jobs dans Spark et MapReduce
  • Traitement Spark sans serveur avec Databricks et Qubole
  • Support de répartition dynamique
  • Module de planificateur de jobs Hadoop avec YARN
  • Sécurité Hadoop pour Kerberos
  • Data lakes : importer, charger et décharger des données
  • Environnement de conception graphique
  • Travail collaboratif avec référentiel partagé
  • Intégration en continu/Livraison en continu
  • Mappage visuel des fichiers et documents complexes (JSON, XML et EDI)
  • Audit, comparaison des jobs, analyse d’impact, tests, débogage et mise au point
  • Passerelle des métadonnées (import/export des métadonnées, gestion centralisée des métadonnées)
  • Exécution et parallélisme à distance
  • Schéma dynamique, joblets réutilisables et projets de référence
  • Gestionnaire de référentiels
  • Supporte les opérations ETL et ELT
  • Assistants logiciels et visionneuse de données interactive
  • Versionnage
  • Suivi de l’évolution des bases de données (Change Data Capture, CDC)
  • Documentation automatique
  • Évaluation personnalisable
  • Bibliothèque de structures
  • Cloud Pipeline Designer
+ Voir plus

Qualité des données, libre-service et gouvernance

  • Profiling des données et analyse avec diagrammes et exploration des données
  • Standardisation et nettoyage des données automatisées et application des règles
  • Confidentialité des données avec masquage et chiffrement
  • Portail sur la qualité des données avec supervision, reporting et tableaux de bord
  • Découverte sémantique avec détection automatique de structures
  • Survivance complète
  • Échantillonnage des données
  • Enrichissement, harmonisation, recherche floue et déduplication
  • Recherche par facettes, échantillonnage des données, découverte sémantique et auto-profilage
  • Curation sociale avec partage de données, marquage, évaluations et approbations
  • Référence croisée entre ensembles de données et préparations et/ou pipelines pour le lignage des données et l’analyse d’impact
  • Référence croisée entre ensembles de données et préparations et/ou pipelines pour le lignage des données et l’analyse d’impact
+ Voir plus

Connecteurs

  • Cloud : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform, etc.
  • Entrepôt de données et data lakes Cloud : Snowflake, Amazon Redshift, Azure Data Lake Storage Gen2, Azure SQL Data Warehouse, Google BigQuery
  • Solutions big data supportées : Amazon EMR, Microsoft Azure HDInsight, Cloudera, Google Dataproc, Hortonworks, MapR
  • Cloudera Altus, Databricks, Qubole
  • Spark MLlib (classification, clustering, recommandation, régression)
  • NoSQL : Cassandra, Couchbase, DynamoDB, MongoDB, Neo4j, etc.
  • Bases de données RDBMS/SGDBR : Oracle, Teradata, Microsoft SQL Server, etc.
  • SaaS : Marketo, Salesforce, NetSuite, etc.
  • Applications commerciales : SAP, Microsoft Dynamics, Sugar CRM, etc.
  • Technologies : Dropbox, Box, SMTP, FTP/SFTP, LDAP, etc.
  • En option, services de validation des adresses par des tiers
+ Voir plus

Composants

  • Composants Hadoop : HDFS, Hbase, Hive, Pig, Sqoop
  • Gestion des fichiers : ouvrir, déplacer, compresser, décompresser sans script
  • Contrôle et orchestration des flux de données et des intégrations de données à travers les jobs maîtres
  • Mapper, agréger, trier, enrichir et fusionner les données
+ Voir plus

Préparation et intendance des données

  • Deux licences gratuites avec chaque abonnement
  • Importer, exporter et combiner des fichiers CSV, Parquet et AVRO
  • Export vers les solutions Tableau
  • Accès en libre-service et à la demande aux datasets validés
  • Partage des préparations et des datasets
  • Préparations opérationnelles dans tout flux d’intégration de données ou Big Data
  • Exécuter les préparations de données dans Apache Beam*
  • Découverte automatique, standardisation, profilage automatique, suggestions intelligentes et visualisation des données
  • Personnalisation du type sémantique pour le profilage automatique et la standardisation
  • Échantillonnage intelligent et sélectif et cycles d’exécution complets
  • Suivi et masquage des données (avec sécurité en fonction des rôles)
  • Nettoyage et enrichissement
  • Application d’intendance pour la compilation et la certification des données
  • Définition des modèles de données, de la sémantique des données et des données de profil en conséquence Define and apply rules
  • Fusion des données, identification des correspondances entre données, résolution des erreurs des données et arbitrage des données (classification et certification)
  • Orchestration des activités et collaboration dans le cadre des campagnes
  • Définition du rôle de chaque utilisateur, des workflows et priorités, attribution et délégation des tâches, ajout des balises et des commentaires
  • Intégration de l’intendance et gouvernance dans les flux d’intégration des données et gestion des rejets
  • Intégration de la certification humaine et de la résolution des erreurs dans les processus MDM
  • Prendre des décisions pour les correspondances des données qui ne peuvent pas être identifiées automatiquement
  • Déduplication des données selon besoin par machine learning
  • Audit et suivi des actions de résolution des erreurs des données. Suivi de l’avancement des campagnes. Défaire/refaire en fonction des besoins
+ Voir plus

Gestion et monitoring

  • Haute disponibilité, équilibrage de charge, basculement des travaux selon charge
  • Gestionnaire de déploiement et collaboration entre équipes
  • Gestion des utilisateurs, des groupes, des rôles, des projets et des licences
  • Gestion de moteurs d’exécution
  • Intégration Single Sign-On (SSO) avec plusieurs fournisseurs SSO
  • Plan d’exécution et planification des jobs en fonction du temps et des événements
  • Points de contrôle, récupération après erreur
  • Gestion du contexte (développement, assurance qualité, production)
  • Collecte et affichage de journaux
  • En option, module pour ajout d’utilisateurs Admin*
  • Clusters de moteurs pour les jobs
  • Adresses IP statiques*
  • Historique d’exécution des jobs (2 mois pour les produits d’entrée de gamme, 3 mois pour les plates-formes)
  • Environnements (2 mois pour les produits d’entrée de gamme, illimité pour les plates-formes)*
  • Gestion des informations et des événements de sécurité Cloud (SIEM), système de détection d’intrusion (IDS), système de prévention d’intrusion (IPS) et pare-feu d’applications Web (WAF)
+ Voir plus

Qualité des big data

  • Opérations sur les données : nettoyage, profilage, masquage, analyse/parsing et correspondances (sur Spark et Hadoop)
  • Machine learning pour correspondances/déduplication des données
  • Supporte Cloudera Navigator et Apache Atlas
  • Profilage des fichiers HDFS
+ Voir plus

Profiling avancé des données

  • Détection des modèles de fraude selon la loi de Benford
  • Statistiques performantes avec seuils indicateurs
  • Analyse des groupes de colonnes
  • Analyse avancée des correspondances
  • Analyse de corrélation des colonnes temporelles
+ Voir plus

Respectez le budget de vos projets d’intégration de données

Talend keeps it flexible

Flexibles

Bénéficiez de coûts prévisibles et de ressources flexibles grâce à des abonnements annuels ou mensuels.

Talend keeps it predictable

Prévisibles

Talend facture au nombre d’utilisateurs, et non au volume de données ou au connecteur.

Talend keeps it simple

Simples

Coût total de possession divisé par deux à l’aide d’une solution unique, dans le cloud.

With Talend, we have been able to decode the Panama Papers, rapidly ‘connecting the dots’ between the corporate information for secret offshore companies and the people behind them.

Mar Cabra, Head of the Data & Research Unit
Talend customer: Euronext

Dans le monde du trading, nous avons trois mots d’ordre : l’intégrité car il est impossible de perdre un seul ordre, la disponibilité permanente et la gouvernance sur un marché très régulé. Talend a répondu à ces attentes.

Abderrahmane Belarfaoui, Chief Data Officer (CDO), Euronext

With Talend, we have improved our 48.8 million passenger’s experience and operation’s efficiency. And we have been recognized as Europe ‘s number One airport over 40 million passengers according to ACI World’s globally-established Airport Service Quality programme

Pietro Caminiti - Head of IT Solutions, Aeroporti di Roma

Prêt à faire vos premiers pas avec Talend ?