Cursuri Hadoop

Cursuri Hadoop

Programele de pregătire locală, instruite de instructori Apache Hadoop demonstrează prin practica interactivă practica principalele componente ale ecosistemului Hadoop și modul în care aceste tehnologii pot fi utilizate pentru a rezolva probleme la scară largă. Instruirea Hadoop este disponibilă ca "formare live la fața locului" sau "formare live la distanță". Training-ul live la fața locului poate fi efectuat la fața locului la sediul clientului Moldova sau în centrele de formare corporativa NobleProg din România Moldova . Instruirea live la distanță este realizată printr-un desktop interactiv, la distanță. NobleProg - Furnizorul dvs. de formare locală

Machine Translated

Mărturii

★★★★★
★★★★★

Apache Hadoop Course Outlines

Numele cursului
Durata
Sinoptic
Numele cursului
Durata
Sinoptic
21 hours
Python este o limbă de programare scalabilă, flexibilă și utilizată pe scară largă pentru știința datelor și învățarea mașinilor. Spark este un motor de prelucrare a datelor utilizat în căutarea, analizarea și transformarea datelor mari, în timp ce Hadoop este un cadru de bibliotecă software pentru stocarea și prelucrarea datelor la scară largă. Această formare directă (online sau on-site) este destinată dezvoltatorilor care doresc să utilizeze și să integreze Spark, Hadoop, și Python pentru a procesa, analiza și transforma seturi de date mari și complexe. La sfârșitul cursului, participanții vor putea:
    Configurați mediul necesar pentru a începe prelucrarea datelor mari cu Spark, Hadoop, și Python. Înțelegeți caracteristicile, componentele de bază și arhitectura Spark și Hadoop. Aflați cum să integrați Spark, Hadoop, și Python pentru prelucrarea datelor mari. Explorați instrumentele din ecosistemul Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka și Flume). Construiți sisteme de recomandare de filtrare colaborative similare cu Netflix, YouTube, Amazon, Spotify și Google. Utilizați Apache Mahout pentru a scala algoritmele de învățare cu mașină.
Formatul cursului
    Lecții și discuții interactive. Multe exerciții și practici. Implementarea pe mâini într-un mediu live-lab.
Opțiuni de personalizare
    Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a organiza.
7 hours
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
14 hours
Datameer este o platformă de business intelligence și de analiză construită pe Hadoop Permite enduserilor să acceseze, să exploreze și să coreleze datele de mari dimensiuni, structurate, semistructurate și nestructurate într-o manieră simplă În această instruire instruită, participanții vor învăța cum să folosească Datameer pentru a depăși curba de învățare abruptă a lui Hadoop, deoarece ei parcurg configurarea și analiza unei serii de mari surse de date Până la sfârșitul acestui curs, participanții vor putea: Creați, curățați și explorați interactiv un lac de date pentru întreprinderi Accesați depozite de date de business intelligence, baze de date tranzacționale și alte magazine analitice Utilizați o interfață de utilizator a foii de calcul pentru a proiecta conducte de procesare a datelor endtoend Accesați funcțiile pre-construite pentru a explora relații complexe de date Utilizați vrăjitoare draganddrop pentru a vizualiza date și a crea tablouri de bord Utilizați tabele, grafice, grafice și hărți pentru a analiza rezultatele interogării Public Analiști de date Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
21 hours
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 hours
Public: Cursul este destinat specialiștilor IT care caută o soluție pentru stocarea și procesarea seturilor de date mari într-un mediu distribuit al sistemului Go al: Cunoștințe aprofundate privind administrarea clusterului Hadoop .
28 hours
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 hours
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 hours
Apache Hadoop este unul dintre cele mai populare cadre pentru procesarea Big Data pe grupuri de servere. Acest curs se ocupă de gestionarea datelor în HDFS, Porci avansate, Hive și HBase. Aceste tehnici avansate de programare vor fi benefice pentru dezvoltatorii Hadoop experiență. Public : dezvoltatori Durata: trei zile Format: prelegeri (50%) și laboratoare practice (50%).
21 hours
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 hours
Apache Hadoop este cel mai popular cadru pentru procesarea Big Data pe clustere de servere. În acest curs de trei (opțional, patru) zile, participanții vor afla despre beneficiile și cazurile de utilizare pentru Hadoop și ecosistemul său, cum să planifice desfășurarea și creșterea clusterului, cum să instalați, să mențineți, să monitorizați, să depanați și să optimizați Hadoop . Ei vor practica, de asemenea, încărcarea de date în grup, vor cunoaște diverse distribuții Hadoop și vor practica instalarea și gestionarea instrumentelor de ecosistem Hadoop . Cursul se încheie cu discuția despre asigurarea unui cluster cu Kerberos. "... Materialele au fost foarte bine pregătite și acoperite cu atenție. Laboratorul a fost foarte util și bine organizat "
- Andrew Nguyen, Inginer Principal de Integrare DW, Microsoft Online Advertising Public Administratorii Hadoop Format Prelegeri și laboratoare, echilibru aproximativ 60%, 40% laboratoare.
21 hours
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
21 hours
Hadoop este cel mai popular cadru de prelucrare a datelor din Big Data .
14 hours
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 hours

Acest curs este destinat dezvoltatorilor, arhitecților, oamenilor de știință de date sau oricăror profiluri care necesită acces la date intensiv sau regulat. Obiectivul principal al cursului este manipularea și transformarea datelor. Printre instrumentele din ecosistemul Hadoop , acest curs se numără utilizarea Porcului și a Hive ambele fiind intens utilizate pentru transformarea și manipularea datelor. Această instruire abordează, de asemenea, valorile performanței și optimizarea performanței. Cursul este în întregime practicat și este punctat de prezentări ale aspectelor teoretice.
14 hours
In this instructor-led training in Moldova, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 hours
Apache Samza este un cadru de calcul asincron, asincron, în timp real, open source Utilizează Apache Kafka pentru mesagerie și Apache Hadoop YARN pentru toleranță la erori, izolarea procesorului, securitate și gestionarea resurselor. Acest instruire live, condus de instructor, introduce principiile din spatele sistemelor de mesagerie și procesarea fluxului distribuit, în timp ce participanții parcurg prin crearea unui proiect bazat pe Samza și execuția postului. Până la sfârșitul acestui antrenament, participanții vor putea:
  • Utilizați Samza pentru a simplifica codul necesar pentru a produce și consuma mesaje.
  • Decuplați gestionarea mesajelor dintr-o aplicație.
  • Utilizați Samza pentru a implementa calcule asincrone aproape în timp real.
  • Utilizați procesarea fluxului pentru a oferi un nivel mai mare de abstractizare asupra sistemelor de mesagerie
Public
  • Dezvoltatori
Formatul cursului
  • Partea de prelegere, o discuție parțială, exerciții și practici practice
7 hours
Alluxio este un sistem de stocare distribuit virtual cu sursă deschisă care unifică sisteme de stocare diferite și permite aplicațiilor să interacționeze cu datele la viteza de memorie. Acesta este utilizat de companii precum Intel, Baidu și Alibaba. În această instruire condusă de instructori, cursuri live, participanții vor învăța cum să utilizeze Alluxio pentru a purta diferite cadre de calcul cu sisteme de stocare și pentru a gestiona în mod eficient datele de scară multi-petabyte pe măsură ce trec prin crearea unei aplicații cu Alluxio. La sfârșitul cursului, participanții vor putea:
    Dezvoltați o aplicație cu Alluxio Conectați sistemele de date mari și aplicațiile în timp ce păstrați un spațiu de nume Extrage eficient valoarea din datele mari în orice format de stocare Îmbunătățirea performanței sarcinii de lucru Dezvoltați și gestionați Alluxio independent sau clusterat
Audienţă
    Știință de date Dezvoltatori Administratorul sistemului
Formatul cursului
    Lecții parțiale, discuții parțiale, exerciții și practici grele
14 hours
Tigon este o sursă open source, în timp real, lowlatency, highthroughput, YARN nativ, cadru de procesare a fluxului care se află pe partea de sus a HDFS și HBase pentru persistență Aplicațiile Tigon abordează cazuri de utilizare, cum ar fi detectarea și analiza intruziunilor în rețea, analiza pieței sociale media, analiza locației și recomandările utilizatorilor în timp real Această instruire live instrucționată introduce abordarea lui Tigon de a combina procesul de procesare în timp real și lot, pe măsură ce participanții merg prin crearea unei exemple de aplicații Până la sfârșitul acestui curs, participanții vor putea: Creați aplicații puternice de procesare a fluxului pentru a gestiona volume mari de date Procesați surse de flux, cum ar fi jurnalele Twitter și Webserver Utilizați Tigon pentru conectarea rapidă, filtrarea și agregarea fluxurilor Public Dezvoltatori Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
21 hours
Apache NiFi (Hortonworks DataFlow) este o platformă de logistică integrată în timp real a datelor și o simplă platformă de procesare a evenimentelor care permite mutarea, urmărirea și automatizarea datelor între sisteme. Este scris folosind o programare bazată pe fluxuri și oferă o interfață de utilizator bazată pe web pentru a gestiona fluxurile de date în timp real. În cadrul acestui training, instruit în direct (la fața locului sau la distanță), participanții vor învăța cum să se implementeze și să gestioneze Apache NiFi într-un mediu de laborator live. Până la sfârșitul acestui antrenament, participanții vor putea:
  • Instalați și configurați Apachi NiFi.
  • Sursa, transformarea și gestionarea datelor din surse de date disparate, distribuite, inclusiv baze de date și lacuri de date mari.
  • Automatizarea fluxurilor de date.
  • Activați analizele de streaming.
  • Aplicați diverse abordări pentru ingestia de date.
  • Transformați Big Data și în perspective de afaceri.
Formatul cursului
  • Prelegeri și discuții interactive.
  • O mulțime de exerciții și practică.
  • Implementarea practică într-un mediu de laborator live.
Opțiuni de personalizare a cursului
  • Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
7 hours
Apache NiFi (Hortonworks DataFlow) este o platformă de logistică integrată în timp real a datelor și o simplă platformă de procesare a evenimentelor care permite mutarea, urmărirea și automatizarea datelor între sisteme. Este scris folosind o programare bazată pe fluxuri și oferă o interfață de utilizator bazată pe web pentru a gestiona fluxurile de date în timp real. În cadrul acestui training, instruit în direct, participanții vor învăța fundamentele programării bazate pe fluxuri, deoarece dezvoltă o serie de extensii demo, componente și procesoare care folosesc Apache NiFi . Până la sfârșitul acestui antrenament, participanții vor putea:
  • Înțelegeți arhitectura NiFi și conceptele fluxului de date.
  • Dezvoltați extensii folosind API-uri NiFi și terțe părți.
  • Personalizate dezvoltă propriul procesor Apache Nifi.
  • Ingerați și prelucrați datele în timp real din formate de fișiere și surse de date diferite și neobișnuite.
Formatul cursului
  • Prelegeri și discuții interactive.
  • O mulțime de exerciții și practică.
  • Implementarea practică într-un mediu de laborator live.
Opțiuni de personalizare a cursului
  • Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
28 hours
Hadoop este un cadru de prelucrare popular Big Data. Python este un limbaj de programare de nivel înalt, cunoscut pentru sintaza sa clară și readabilitatea codului. În acest curs de instruire, participanții vor învăța cum să lucreze cu Hadoop, MapReduce, Pig și Spark folosind Python pe măsură ce trec prin mai multe exemple și utilizează cazuri. La sfârșitul cursului, participanții vor putea:
    Înțelegeți conceptele de bază din spatele Hadoop, MapReduce, Pig și Spark Utilizați Python cu Hadoop Sistem de fișiere distribuite (HDFS), MapReduce, Pig și Spark Utilizați Snakebite pentru a accesa în mod programat HDFS în Python Utilizați mrjob pentru a scrie MapReduce locuri de muncă în Python Scrieți programe Spark cu Python Extindeți funcționalitatea porcului folosind Python UDF-uri Gestionarea MapReduce locuri de muncă și scripte Pig folosind Luigi
Audienţă
    Dezvoltatori profesioniștii IT
Formatul cursului
    Lecții parțiale, discuții parțiale, exerciții și practici grele
14 hours
Sqoop este un instrument software open source pentru transferul de date intre Hadoop si baze de date relationale sau mainframe Acesta poate fi folosit pentru a importa date din sistemul de gestionare a bazelor de date relaționale (RDBMS), cum ar fi MySQL sau Oracle sau un mainframe, în sistemul de distribuire a fișierelor Hadoop (HDFS) Ulterior, datele pot fi transformate în Hadoop MapReduce și apoi reexportate înapoi într-o RDBMS În acest training instruit, participanții vor învăța cum să utilizeze Sqoop pentru a importa date dintr-o bază de date relațională tradițională în Hadoop de stocare, cum ar fi HDFS sau Hive și invers Până la sfârșitul acestui curs, participanții vor putea: Instalați și configurați Sqoop Importați date din MySQL în HDFS și stup Importați date din HDFS și Hive în MySQL Public Administratorii de sistem Ingineri de date Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră Notă Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a aranja .
21 hours
Analiza datelor mari implică procesul de examinare a unor cantități mari de seturi de date variate pentru a descoperi corelații, tipare ascunse și alte informații utile. Industria sănătății are cantități masive de date medicale și clinice eterogene complexe. Aplicarea analizelor de date mari asupra datelor de sănătate prezintă un potențial imens în obținerea unor perspective pentru îmbunătățirea furnizării asistenței medicale. Cu toate acestea, enormitatea acestor seturi de date prezintă provocări mari în analize și aplicații practice într-un mediu clinic. În cadrul acestui instruire, instruit în direct (de la distanță), participanții vor învăța cum să efectueze analize de date mari în sănătate, în timp ce parcurg o serie de exerciții practice în laborator live. Până la sfârșitul acestui antrenament, participanții vor putea:
  • Instalați și configurați instrumente de analiză a datelor mari precum Hadoop MapReduce și Spark
  • Înțelegeți caracteristicile datelor medicale
  • Aplicați tehnici de date mari pentru a trata datele medicale
  • Studiați sisteme de date mari și algoritmi în contextul aplicațiilor pentru sănătate
Public
  • Dezvoltatori
  • Oamenii de știință de date
Formatul cursului
  • Partea de prelegere, o discuție parțială, exerciții și practici practice.
Notă
  • Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
35 hours
Apache Hadoop este un cadru popular de prelucrare a datelor pentru prelucrarea seturilor mari de date pe mai multe computere. Această formare directă, condusă de instructori (online sau on-site) este destinată administratorilor de sistem care doresc să învețe cum să stabilească, să implementeze și să gestioneze Hadoop clustere în cadrul organizației lor. La sfârșitul cursului, participanții vor putea:
    Instalați și configurați Apache Hadoop. Înțelegeți cele patru componente principale ale ecosistemului Hadoop: HDFS, MapReduce, YARN și Hadoop Common. Utilizați sistemul de fișiere distribuit (HDFS) pentru a măsura un cluster la sute sau mii de noduri. •   Instalați HDFS pentru a funcționa ca un motor de stocare pentru descărcările on-premise Spark. Setarea Spark pentru a accesa soluții alternative de stocare, cum ar fi Amazon S3 și NoSQL sisteme de bază de date, cum ar fi Redis, Elasticsearch, Couchbase, Aerospike, etc. Executați sarcini administrative, cum ar fi furnizarea, gestionarea, monitorizarea și securizarea unui cluster Apache Hadoop.
Formatul cursului
    Lecții și discuții interactive. Multe exerciții și practici. Implementarea pe mâini într-un mediu live-lab.
Opțiuni de personalizare
    Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a organiza.
21 hours
Cloudera Impala este un motor de interogare de procesare masiv paralelă (MPP) SQL open source pentru clustere Apache Hadoop.Impala permite utilizatorilor să emită interogări cu latență scăzută SQL la datele stocate în Hadoop Sistemul de fișiere distribuite și Apache Hbase fără a necesita mutarea sau transformarea datelor.PublicAcest curs se adresează analiștilor și cercetătorilor de date care efectuează analize asupra datelor stocate în Hadoop prin intermediul instrumentelor Business Intelligence sau SQL.După acest curs, delegații vor putea
    Extrageți informații semnificative din Hadoop clustere cu Impala. Scrieți programe specifice pentru a facilita Business Intelligence în Impala SQL Dialect. Depanați Impala.
21 hours
Apache Ambari este o platformă de management open-source pentru aprovizionare, gestionare, monitorizare și securizare a clusterelor Apache Hadoop . În cadrul acestei instruiri live, instruită de instructor, participanții vor învăța instrumentele și practicile de management oferite de Ambari pentru a gestiona cu succes grupurile Hadoop . Până la sfârșitul acestui antrenament, participanții vor putea:
  • Configurați un cluster Big Data direct folosind Ambari
  • Aplicați funcțiile și funcționalitățile avansate ale Ambari la diverse cazuri de utilizare
  • Adăugați și eliminați nodurile fără probleme, după cum este necesar
  • Îmbunătățiți performanțele unui cluster Hadoop prin reglare și reglare
Public
  • DevOps
  • Administratori de sistem
  • DBAs
  • Profesioniști în testarea Hadoop
Formatul cursului
  • Partea de prelegere, o discuție parțială, exerciții și practici practice
21 hours
Hortonworks Data Platform (HDP) este o platformă de suport open-source Apache Hadoop care oferă o bază stabilă pentru dezvoltarea de soluții de date mari pe ecosistemul Apache Hadoop . Acest instruire în direct (la fața locului sau la distanță), condus de instructor, introduce Hortonworks Data Platform (HDP) și parcurge participanții prin implementarea soluției Spark + Hadoop . Până la sfârșitul acestui antrenament, participanții vor putea:
  • Folosiți Hortonworks pentru a rula în mod sigur Hadoop la scară largă.
  • Unificați capacitățile de securitate, guvernare și operațiuni ale lui Hadoop cu fluxurile de lucru analitice agile Spark.
  • Folosiți Hortonworks pentru a investiga, valida, certifica și susține fiecare componentă dintr-un proiect Spark.
  • Procesați diferite tipuri de date, inclusiv structurate, nestructurate, în mișcare și în repaus.
Formatul cursului
  • Prelegeri și discuții interactive.
  • O mulțime de exerciții și practică.
  • Implementarea practică într-un mediu de laborator live.
Opțiuni de personalizare a cursului
  • Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.

Last Updated:

Sfarsit de saptamana Apache Hadoop Cursuri, Seara Hadoop Training, Hadoop Camp, Apache Hadoop Cu instructor, Sfarsit de saptamana Hadoop Training, Seara Hadoop Cursuri, Apache Hadoop Coaching, Hadoop Instructor, Apache Hadoop Trainer, Hadoop Cursuri, Apache Hadoop Clase, Hadoop Pe pagina, Hadoop curs privat, Apache Hadoop one on one training

Reduceri pentru cursuri

No course discounts for now.

Newsletter Oferte Cursuri

Respectăm confidențialitatea adresei dvs. de email. Nu vom transmite sau vinde adresa altor părți. Puteți să schimbați preferințele sau să vă dezabonați complet în orice moment.

Câțiva dintre clienții noștri

is growing fast!

We are looking for a good mixture of IT and soft skills in Moldova!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions