Verwerking van big data met Apache Spark & ​​Scala



Apache Spark is naar voren gekomen als een geweldige ontwikkeling in de verwerking van big data.

genereer een willekeurige string java

IST: 7:00 - 08:00 uur, 17 oktober '14





PDT: 18:30 - 19:30 uur, 16 oktober ’14

Beperkte plaatsen !! Vul het formulier hiernaast in en boek vandaag nog uw slot.



Hallo allemaal, we houden op 18 oktober '14 een gratis webinar over Apache Spark en Scala. De titel van het webinar is ‘Big data-verwerking met Apache Spark en Scala’ . In dit webinar worden de essentiële onderwerpen met betrekking tot Apache Spark en Scala besproken. Eventuele vragen of twijfels kunnen tijdens de sessie worden verduidelijkt.

Onderwerpen die moeten worden behandeld:

  • Wat is Big Data?
  • Wat is Spark?
  • Waarom Spark?
  • Spark Ecosysteem
  • Een opmerking over Scala
  • Waarom Scala?
  • Hallo Spark - Hands on

Waarom Spark?

Apache Spark is een open-source framework voor clustercomputergebruik voor Hadoop-communityclusters. Het kwalificeert zich als een van de beste data-analyse- en verwerkingsengines voor grootschalige data met zijn ongeëvenaarde snelheid, gebruiksgemak en geavanceerde analytics. Hieronder volgen de voordelen en functies die Apache Spark tot een crossover-hit maken voor zowel operationele als onderzoeksanalyses:

  • De programma's die via Spark zijn ontwikkeld, werken 100 keer sneller dan de programma's die in Hadoop MapReduce zijn ontwikkeld.
  • Spark stelt 80 high-level operators samen.
  • Spark Streaming maakt real-time gegevensverwerking mogelijk.
  • GraphX ​​is een bibliotheek voor grafische berekeningen.
  • MLib is de machine learning-bibliotheek voor Spark.
  • Spark is voornamelijk geschreven in Scala en kan worden ingebed in elk JVM-gebaseerd operationeel systeem, maar kan tegelijkertijd ook worden gebruikt in REPL (Read, Evaluate, Process and Load) manier.
  • Het heeft krachtige caching- en schijfpersistentiemogelijkheden.
  • Spark SQL stelt het in staat om bekwaam SQL-query's af te handelen
  • Apache Spark kan worden geïmplementeerd via Apache Mesos, Yarn in HDFS, HBase, Cassandra of Spark Cluster Manager (Spark's eigen clustermanager).
  • Spark simuleert de functionele stijl en collecties-API van Scala, wat een groot voordeel is voor Scala- en Java-ontwikkelaars.

Noodzaak voor Apache Spark:

Spark levert de industrie enorme voordelen op in termen van snelheid, verscheidenheid aan taken die het kan uitvoeren, flexibiliteit, kwaliteitsgegevensanalyse, kosteneffectiviteit, enz., Die de behoeften van de dag zijn. Het levert high-end, realtime big data-analyseoplossingen aan de IT-industrie en voldoet zo aan de stijgende vraag van klanten. Real-time analyse maakt gebruik van zakelijke mogelijkheden. De compatibiliteit met Hadoop maakt het voor bedrijven heel gemakkelijk om het snel over te nemen. Er is een grote behoefte aan door Spark geleerde experts en ontwikkelaars, aangezien dit een relatief nieuwe technologie is die in toenemende mate wordt toegepast.