Apache Hadoop
open-source softwareframework / Uit Wikipedia, de vrije encyclopedia
Apache Hadoop is een open source softwareframework voor gedistribueerde opslag en verwerking van grote hoeveelheden data met behulp van het MapReduce paradigma. Hadoop is als platform een drijvende kracht achter de populariteit van big data.[4] Het draait op een cluster van computers dat bestaat uit commodity hardware. In het ontwerp van de Hadoop-softwarecomponenten is rekening gehouden met uitval van systemen in een cluster, door o.a. data te repliceren en te verspreiden over meerdere computers/opslagmedia.
Snelle feiten Ontwerper(s), Ontwikkelaar(s) ...
Apache Hadoop | ||||
---|---|---|---|---|
Ontwerper(s) | Doug Cutting, Mike Cafarella | |||
Ontwikkelaar(s) | Apache Software Foundation | |||
Uitgebracht | 1 april 2006 (18 jaar) | |||
Recentste versie | 1.0.0 (15 december 2011)[1][2][3] | |||
Status | Actief | |||
Besturingssysteem | multiplatform, POSIX | |||
Geschreven in | Java | |||
Categorie | Gedistribueerd bestandssysteem | |||
Licentie(s) | Apache License 2.0 | |||
Versiebeheer | ||||
Website | Projectpagina | |||
|
Sluiten