Explore stock prices with Spark SQL

4.5
37件の評価
提供:
Coursera Project Network
1,913人がすでに登録済みです
このガイド付きプロジェクトでは、次のことを行います。

Create an application that runs on a Spark cluster

Derive knowledge from data using Spark RDD and DataFrames

Store results in Parquet tables

Clock2 hours
Intermediate中級
Cloudダウンロード不要
Video分割画面ビデオ
Comment Dots英語
Laptopデスクトップのみ

In this 1-hour long project-based course, you will learn how to interact with a Spark cluster using Jupyter notebook and how to start a Spark application. You will learn how to utilize Spark Resisilent Distributed Datasets and Spark Data Frames to explore a dataset. We will load a dataset into our Spark program, and perform analysis on it by using Actions, Transformations, Spark DataFrame API and Spark SQL. You will learn how to choose the best tools to use for each scenario. Finally, you will learn to save your results in Parquet tables.

あなたが開発するスキル

Spark SQLData AnalysisBig DataApache SparkDistributed Computing

ステップバイステップで学習します

ワークエリアを使用した分割画面で再生するビデオでは、講師がこれらの手順を説明します。

  1. By the end of Task 1, you will become familiar with the Jupyter notebook environment

  2. By the end of Task 2, you will be able to initialize a Spark application

  3. By the end of Task 3, you will be able to create Spark Resilient Distributed Datasets

  4. By the end of Task 4, you will be able to create Spark Data Frames in several ways

  5. By the end of Task 5, you will be able to explore data sets with Spark SQL

  6. By the end of Task 6, you will be able to write statistic queries and compare Spark DataFrames

  7. By the end of Task 7, you will be able to store DataFrames in Parquet tables

ガイド付きプロジェクトの仕組み

ワークスペースは、ブラウザに完全にロードされたクラウドデスクトップですので、ダウンロードは不要です

分割画面のビデオで、講師が手順ごとにガイドします

よくある質問

よくある質問

さらに質問がある場合は、受講者向けヘルプセンターにアクセスしてください。