Hadoop Bezpłatne narzędzie Big Data
Przeanalizuj złożone zestawy danych za pomocą oprogramowania do analizy dużych danych
Szybsze przetwarzanie złożonych danych z bezpłatnymi i open source Big Data Tools. Zajmij się ogromnym wolumenem, różnorodnością zestawów danych i poprawiaj podejmowanie decyzji biznesowych.
Przegląd
Hadoop jest bezpłatnym i open source narzędzie dużych zbiorów danych. Jest to solidne, niezawodne i skalowalne oprogramowanie do analizy dużych danych. HDFS (High rozproszony system plików), MapReduce i przędze to trzy kluczowe elementy Hadoop. HDFS to warstwa pamięci, która składa się z dwóch rodzajów węzłów: nazwy i danych. Metadane o lokalizacji bloku są przechowywane w Namenode. W z góry określonym okresie Datanodes przechowuje blok i wysyła raporty blokowe do Namenode. Warstwa przetwarzania MapReduce jest podzielona na dwie fazy: fazę mapy i fazę zmniejszania. Jest przeznaczony do jednoczesnego przetwarzania danych, które są rozmieszczone w kilku węzłach. W Hadoop Big Data Yarn to warstwa planowania pracy i zarządzania zasobami. Hadoop jest jednym z najlepszych oprogramowania Big Data do przetwarzania dużych danych. Klaster Hadoop jest wysoce skalowalny, więc umożliwia skalowanie poziome i pionowe do frameworka Hadoop. Ma funkcję tolerancji usterki, która opiera się na mechanizmie replikacji w celu zapewnienia tolerancji błędów. Hadoop zapewnia, że dane są nadal dostępne, nawet jeśli wszystko nie idzie dobrze. Jeśli jeden z danych nie powiedzie się, użytkownik może uzyskać dostęp do danych z innych danych, które mają kopię tych samych danych. Hadoop to rozproszony system przechowywania danych, który umożliwia przetwarzanie danych przez klaster węzłów. W rezultacie daje to Framework Framework Forning Fast Processation.
Wymagania systemowe
Aby zainstalować Hadoop, musisz mieć następujące oprogramowanie:
- Java
- Użytkownik z uprawnieniami sudo
Cechy
Poniżej znajdują się kluczowe cechy Hadoop:
- Bezpłatne i open source
- Szybsze przetwarzanie danych
- Przetwarzanie rozproszone
- Tolerancja błędów
- niezawodne i skalowalne
- łatwe w użyciu i opłacalne
- Lokalizacja danych
- Wysoka dostępność danych
Instalacja
Instaluj Hadoop na Ubuntu
Najpierw uruchom poniżej polecenie, aby zainstalować serwer OpenSsh i klient.
sudo apt install openssh-server openssh-client -y
Wykonaj polecenie, aby pobrać Hadoop.
wget https://downloads.apache.org/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz
Wyodrębnij pliki, aby zainicjować instalację Hadoop.
tar xzf hadoop-3.2.1.tar.gz