Real-time Big Data Platform

Exploitez des analyses en temps réel et en continu (streaming) pour en dégager ultra-rapidement des connaissances.

Essai gratuit

Profitez de flux de données en temps réel.

Bénéficiez du potentiel de l'analytique en temps réel et en continu en tirant parti de la puissance du streaming Spark sans serveur et du machine learning. L'intégration de Talend Real Time Big Data génère du code natif qui peut s'exécuter dans votre environnement mono-cloud, multi-cloud ou hybride. Vous pouvez donc commencer à travailler avec Spark Streaming dès aujourd'hui et transformer tous vos pools de données en connaissance fiables et exploitables en temps réel.

Quoi de neuf pour les big data chez Talend ? – Fall’18

Fonctionnalités de Real-time Big Data Platform

API Development

  • API Designer sous contrat
  • Simulation automatique des API
  • Automatisation des tests des API
  • Documentation des API hébergées
  • Importation des contrats d’API dans Talend Studio
+ Voir plus

Licence

  • Licence de souscription avec garantie et indemnisation
  • 2 licences gratuites Talend Data Preparation et 2 licences gratuites Talend Data Stewardship pour toute souscription à Talend
  • Disponible sous forme de service cloud et de logiciel téléchargeable

Conception et Outils de productivité

  • Génère du code natif MapReduce et Spark en batch
  • Génère du code natif Spark Streaming
  • Mappage visuel pour les jobs JSON, XML et EDI complexes dans Spark
  • Concepteur de jobs Spark et MapReduce
  • Support de répartition dynamique
  • Planificateur de tâches Hadoop avec YARN
  • Sécurité Hadoop pour Kerberos
  • Importation, chargement et déchargement de/vers un data lake
  • Environnement de conception graphique
  • Travail collaboratif avec référentiel partagé
  • Intégration continue/Livraison continue
  • Mappage visuel pour les jobs JSON, XML et EDI complexes
  • Audit, comparaison des jobs, analyse d’impact, tests, débogage et mise au point
  • Metadata Bridge pour import/export et gestion centralisée des métadonnées
  • Exécution à distance et parallélisation
  • Schémas dynamiques, joblets réutilisables et projets de référence
  • Support des fonctionnalités ETL et ELT
  • Assistants et visualiseur interactif de données
  • Versioning
  • Change data capture (CDC)
  • Documentation automatique
+ Voir plus

Qualité des données et gouvernance

  • Profiling des données et analyse avec diagrammes et exploration des données
  • Automatiser la résolution des erreurs de qualité des données et appliquer les règles
  • Nettoyage et masquage des données
  • Portail de qualité des données avec monitoring, rapports et tableaux de bord
  • Découverte sémantique avec détection automatique de modèles
  • Survivance complète
  • Échantillonnage des données
  • Enrichissement, harmonisation, correspondances floues et déduplication
+ Voir plus

Connecteurs

  • Cloud : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform, etc.
  • Distributions Big Data supportées : Amazon EMR, Azure HDInsight, Cloudera, Google Dataproc, Hortonworks, MapR

Composants

  • Modules Hadoop : HDFS, HBase, Hive, Pig, Sqoop
  • Gestion des fichiers : ouvrir, déplacer, compresser, décompresser sans script
  • Contrôle et orchestration des flux de données et intégrations de données avec des jobs maître
  • Mapping, agrégation, tri, enrichissement, et fusion de données
  • Support standard : REST, SOAP, OpenID Connect, OAuth, SAML, WSDL, SWAGGER(tm), etc.
  • Support transports/protocoles : HTTP, JMS, MQTT, AMQP, UDP, Apache Kafka, WebSphere MQ, etc.
  • Modèles d’intégration (Enterprise Integration Patterns/EIP) pour la médiation des services, le routage et la messagerie
+ Voir plus

Préparation des données et stewardship

  • Deux licences gratuites avec chaque abonnement
  • Importer, exporter et combiner des données contenues dans des fichiers de base de données, Excel ou CSV
  • Importer, exporter et combiner des fichiers CSV, Parquet et AVRO**
  • Exporter vers Tableau
  • Accès à la demande et en libre-service à des datasets validés
  • Partager les préparations de données et les datasets
  • Déployer les préparations de données dans n’importe quel flux d’intégration de données ou de big data
  • Déployer les préparations de données dans n’importe quel flux d’intégration en cloud
  • Exécuter les préparations de données dans Apache Beam*
  • Découverte automatique, standardisation, auto-profiling, suggestions intelligentes et visualisation des données.
  • Personnalisation du type sémantique pour l’auto-profiling et la standardisation
  • Échantillonnage intelligent et sélectif et cycles d’exécution complets
  • Suivi des données et masquage avec sécurité basée sur les rôles
  • Nettoyage et enrichissement
  • Application Data Stewardship pour la curation des données et la certification
  • Définir les modèles de données, la sémantique des données et les données de profil en conséquence Définir et appliquer des règles
  • Fusionner les données, identifier des correspondances entre données, résoudre les erreurs des données et arbitrer les données (classification et certification)
  • Orchestrer les activités et la collaboration dans le cadre des campagnes
  • Définir le rôle de chaque utilisateur, les workflows et les priorités, assigner et déléguer des tâches, ajouter des balises et des commentaires
  • Intégrer la gérance et gouvernance dans les flux d’intégration des données et gérer les rejets
  • Intégrer la certification humaine et la résolution des erreurs dans les processus MDM
  • Prendre des décisions pour les correspondances des données qui ne peuvent pas être identifiées automatiquement
  • Déduplication des données à échelle par machine learning
  • Audit et suivi des actions de résolution des erreurs des données. Suivi de l’avancement des campagnes. Défaire/refaire en fonction des besoins
+ Voir plus

Gestion et monitoring

  • Haute disponibilité, équilibrage de charge, basculement/failover pour les jobs
  • Gestionnaire de déploiements et travail collaboratif
  • Gérer les utilisateurs, groupes, rôles, projets et licences
  • Plan d’exécution et planificateur basé sur les événements et le temps
  • Points de contrôle, récupération après erreur
  • Gestion de contexte (dév., AQ, prod.)
  • Suivi de l’activité
  • Adresses IP statiques*
  • Exporter les logs de tâches vers S3*
  • Environnements (2 mois pour les produits d’entrée de gamme, illimité pour les plates-formes)*
+ Voir plus

Qualité Big Data

  • Nettoyage des données, profiling, masquage, analyse et stewardship sur Spark & Hadoop
  • Machine learning pour correspondances/déduplication des données
  • Profiling des fichiers HDFS

Gestion ESB (version disponible en téléchargement)

  • Référentiel d’artefacts intégré
  • Gestion des identités et autorisations

Intégration agile d’applications (version disponible en téléchargement)

  • Création de services par glisser-déposer : services de routage, services de données, services Web/REST
  • Livrer et router les messages et événements en fonction des modèles d’intégration (Enterprise Integration Patterns, EIP)

Profiling de données avancé

  • Détection des structures frauduleuses à l’aide de la loi de Benford
  • Statistiques avancées avec seuils d’indicateurs
  • Analyse d’ensembles de colonnes
  • Analyse performante des correspondances
  • Analyse de corrélation de colonnes temporelle
+ Voir plus

Contacter le service commercial

Pour toute information sur la collecte et l’utilisation de vos données personnelles, notre politique de confidentialité et de sécurité et vos droits en matière de protection de vos données, veuillez vous référer à notre politique de confidentialité.