Get fresh updates from Hortonworks by email

Once a month, receive latest insights, trends, analytics information and knowledge of Big Data.

cta

Get Started

cloud

Ready to Get Started?

Download sandbox

How can we help you?

closeClose button

Accélérer l’ingestion des données au fil de l’eau et automatiser le transfert des données vers Hadoop

Recorded on November 15th, 2016

Le Big Data est en train de transformer la manière dont les entreprises gèrent et utilisent leurs données. Elles ont désormais plus de données qu’auparavant, statiques et au fil de l’eau, en provenance de sources plus nombreuses au travers de l’organisation.

Elles ne peuvent se permettre de rater l’opportunité d’obtenir plus de connaissances en raison du temps nécessaire à la préparation des données et leur mise à disposition. Elles ont également besoin de solution de chargement à l’épreuve de l’entreprise, allant bien au-delà d’outils comme sqoop, plus adapté aux environnement de test et de développement.

Rejoignez-nous dans ce webinaire pour comprendre comment les solutions d’Attunity et Hortonworks adressent ces difficultés. Vous verrez :

  • Comment ingérer des données au fil de l’eau et les transférer vers Hadoop
  • Des cas d’usage réels d’Hortonworks DataFlow (HDF), basé sur Apache:tm: NiFi
  • Comment combiner les CDC en temps au fil de l’eau et les plateformes connectées d’Hortonworks
  • Une démo conjointe d’Attunity Replicate et HDF pour alimenter des données opérationnelles au fil de l’eau vers Hadoop

 Vous aurez également l’opportunité de poser vos questions autour de votre problématique Big Data aux experts présents

Leave a Reply

Your email address will not be published. Required fields are marked *

In association with :