Obdelava velikih podatkov z Apache Spark & ​​Scala



Apache Spark se je izkazal za odličen razvoj pri obdelavi velikih podatkov.

kako iskati znak v javi -

IST: 7:00 - 08:00, 17. oktobra’14





PDT: 18.30 - 19.30, 16. oktobra ’14

Omejeni sedeži !! Izpolnite obrazec na desni in rezervirajte svoj termin še danes.



Pozdravljeni, 18. oktobra’14 izvajamo brezplačni spletni seminar na Apache Spark in Scala. Naslov spletnega seminarja je „Obdelava velikih podatkov z Apache Spark in Scala“ . Na tem spletnem seminarju bodo obravnavane bistvene teme v zvezi z Apache Spark in Scala. Vsa vprašanja ali dvome je mogoče razjasniti med sejo.

Teme, ki jih je treba zajeti:

  • Kaj so veliki podatki?
  • Kaj je Spark?
  • Zakaj Spark?
  • Ekosistem Spark
  • Opomba o Scali
  • Zakaj Scala?
  • Hello Spark - Roke naprej

Zakaj Spark?

Apache Spark je odprtokodni računalniški okvir grozdov za grozde skupnosti Hadoop. S svojo izjemno hitrostjo, enostavnostjo uporabe in izpopolnjeno analitiko se šteje za enega najboljših mehanizmov za analizo in obdelavo podatkov za obsežne podatke. Sledijo prednosti in lastnosti, zaradi katerih je Apache Spark navzkrižni hit tako za operativno kot preiskovalno analitiko:

  • Programi, razviti v Sparku, se izvajajo 100-krat hitreje kot programi, razviti v Hadoop MapReduce.
  • Spark zbira 80 operaterjev na visoki ravni.
  • Spark Streaming omogoča sprotno obdelavo podatkov.
  • GraphX ​​je knjižnica za grafične izračune.
  • MLib je knjižnica strojnega učenja za Spark.
  • Spark je v glavnem napisan v Scali in ga je mogoče vdelati v kateri koli operacijski sistem, ki temelji na JVM, hkrati pa ga je mogoče uporabiti tudi na način REPL (branje, vrednotenje, obdelava in nalaganje).
  • Ima zmogljive zmogljivosti predpomnjenja in trajanja diska.
  • Spark SQL mu omogoča strokovno obdelavo poizvedb SQL
  • Apache Spark je mogoče namestiti prek Apache Mesos, Preje v HDFS, HBase, Cassandra ali Spark Cluster Manager (Spark-ov lastni upravitelj grozdov).
  • Spark simulira Scala-in funkcionalni slog in zbirke API, kar je velika prednost za razvijalce Scala in Java.

Potreba po Apache Spark:

Spark industriji prinaša izjemne koristi glede hitrosti, raznolikosti nalog, ki jih lahko opravlja, prilagodljivosti, analizi kakovostnih podatkov, stroškovni učinkovitosti itd., Ki so dnevne potrebe. Ponuja vrhunske rešitve za analizo velikih podatkov v realnem času za IT-industrijo, ki ustrezajo naraščajočemu povpraševanju kupcev. Analitika v realnem času izkorišča poslovne zmogljivosti. Zaradi združljivosti s sistemom Hadoop ga podjetja zelo hitro hitro sprejmejo. Obstajajo velike potrebe po strokovnjakih in razvijalcih, ki se učijo v Sparku, saj gre za sorazmerno novo tehnologijo, ki se vedno bolj sprejema.