Use the Apache Spark Structured Streaming API with MongoDB

提供:
Coursera Project Network
このガイド付きプロジェクトでは、次のことを行います。

Use the Apache Spark Structured Streaming API with Python to stream data from two different sources

Use the Apache Spark Structured Streaming API with Python to store a dataset in the MongoDB database and join two datasets

Clock2 hours
Intermediate中級
Cloudダウンロード不要
Video分割画面ビデオ
Comment Dots英語
Laptopデスクトップのみ

By the end of this project, you will use the Apache Spark Structured Streaming API with Python to stream data from two different sources, store a dataset in the MongoDB database, and join two datasets. The Apache Spark Structured Streaming API is used to continuously stream data from various sources including the file system or a TCP/IP socket. One application is to continuously capture data from weather stations for historical purposes.

あなたが開発するスキル

  • Apache Spark SQL
  • Mongodb
  • Apache Spark Structured Streaming API
  • Apache Spark Schema
  • Apache Spark

ステップバイステップで学習します

ワークエリアを使用した分割画面で再生するビデオでは、講師がこれらの手順を説明します。

  1. Create a Python PySpark program to read streaming structured data.

  2. Persist Apache Spark data to MongoDB.

  3. Use Spark Structured Query Language to query data.

  4. Use Spark to stream from two different structured data sources.

  5. Use the Spark Structured Streaming API to join two streaming datasets.

ガイド付きプロジェクトの仕組み

ワークスペースは、ブラウザに完全にロードされたクラウドデスクトップですので、ダウンロードは不要です

分割画面のビデオで、講師が手順ごとにガイドします

よくある質問

よくある質問

さらに質問がある場合は、受講者ヘルプセンターにアクセスしてください。