Warsztaty Big Data

  • 12.10.2017
  • Warszawa
  • dzień
  • 2212 PLN 2101 PLN
Typ szkolenia
Warsztat - Krótsze praktyczne ćwiczenia w większych grupach

Tryb szkolenia
  • W ciągu dnia

Adresaci szkolenia
  • Początkujący
  • Programista/Architekt
  • Analityk
  • Project Manager

Opis szkolenia

Podczas warsztatów wcielisz się w rolę inżyniera i analityka Big Data pracującego dla fikcyjnej firmy StreamRockTM, która tworzy aplikację służącą do słuchania muzyki (podobną do Spotify). W czasie pracy wykorzystasz technologie Big Data, takie jak Apache Hadoop, Spark czy Hive do przetwarzania i analizowania różnych zbiorów danych dotyczących użytkowników serwisu oraz akcji przez nich wykonywanych. Wyniki analiz pomogą CEO StreamRockTM w podjęciu ważnych decyzji biznesowych w oparciu o prawdziwe dane.Wszystkie ćwiczenia zostaną przeprowadzone na rzeczywistym, wielowęzłowym klastrze Hadoop.

Podczas warsztatu szczególny nacisk kładziemy na praktyczną stronę wykorzystania technologii. Nasi instruktorzy uczą nie tylko niezbędnej teorii, ale również dzielą się swoim wieloletnim doświadczeniem z pracy z narzędziami Big Data.

Dla kogo?

Warsztaty Big Data dedykowane są wszystkim osobom zainteresowanym technologiami Big Data. Nabyta wiedza jest szczególnie użyteczna dla analityków, programistów i managerów zaczynających swoją przygodę z ekosystemem Hadoop.

Wymagania

Wszystkiego czego potrzebujesz, żeby wziąć udział w warsztacie to własny laptop z przeglądarką internetową i terminalem. Nasz warsztat jest głównie techniczny, jednak nie jest wymagane żadne wcześniejsze doświadczenie czy wiedza dotyczące technologii Big Data.

Program warsztatu

CZĘŚĆ 1

Wprowadzenie do Big Data i Apache Hadoop

  • Przedstawienie serwisu StreamRock wraz z korzyściami i wyzwaniami w związku z korzystaniem z technologii Big Data.
  • Wprowadzenie do HDFS i YARN (kluczowych komponentów Hadoop).
  • Ćwiczenie: Różne metody dostępu do wielowęzłowego klastra Hadoop.

CZĘŚĆ 2

Używanie interfejsu SQL do uzyskiwania odpowiedzi na ważne pytania biznesowe

  • Wprowadzenie do Apache Hive.
  • Ćwiczenie: Importowanie danych strukturalnych do klastra Hadoop za pomocą HUE.
  • Ćwiczenie: Analiza strukturalnych danych z użyciem Hive.
  • Ćwiczenie: Wizualizacja wyników zapytań w HUE.

CZĘŚĆ 3

Implementacja skalowalnego procesu ETL na klastrze Hadoop.

  • Wprowadzenie do Apache Spark i SparkSQL.
  • Ćwiczenie: Implementacja aplikacji „czyszczącej” dane wejściowe za pomocą Spark.
  • Wyjaśnienie korzyści ze stosowania formatów Avro i Parquet.Praktyczne rady dotyczące implementacji procesów ETL: cykliczne uruchamianie procesów, zarządzanie schema, integracja z innymi systemami.

CZĘŚĆ 4

Zaawansowana analiza różnorodnych zbiorów danych

  • Ćwiczenie: Implementacja zapytań z użyciem SparkSQL i DataFrames.
  • Ćwiczenie: Wizualizacja wyników zapytań z wykorzystaniem Spark Notebook.

CZĘŚĆ 5

Narzędzia do przetwarzania danych w czasie rzeczywistym

  • Zbieranie i udostępnianie danych w czasie rzeczywistym z użyciem Apache Kafka.
  • Przetwarzanie strumieni danych w czasie rzeczywistym z Apache Flink.

Instruktorzy

Nasze warsztaty i szkolenia są przeprowadzane przez instruktorów z wieloletnim doświadczeniem w pracy z technologiami Big Data.


Zapisz się na kurs
Z Bulldogjob oszczędzasz 5% - to 110 PLN
Organizator szkolenia - GetInData - skontaktuje się z tobą w celu dokończenia procesu rejestracji