Traitement des données sans serveur avec Dataflow : cours 2
Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.
Watch on Coursera ↗
(saves to browser)
Sign in to unlock AI tutor explanation · ⚡30
Related AI Lessons
⚡
⚡
⚡
⚡
How I Built a Privacy-First Facial Similarity Network using React & Firebase
Dev.to · Evan S
Code is data. Why do AI coding agents pretend it isn't?
Dev.to · George Ciobanu
Running Claude Code, Ollama, and OpenClaw on Android using Termux + Ubuntu (2026 Guide)
Dev.to · Zecel Manatad
You’re Replacing Programmers With AI — Five Questions to Ask Your CTO First
Medium · Machine Learning
🎓
Tutor Explanation
DeepCamp AI