ETLパイプライン:その仕組みと、拡大するものを構築する方法

Data Pipeline

Stripe Data Pipeline は、クリック数回で最新の Stripe データとレポートをすべて Snowflake や Amazon Redshift に送信できます。

もっと知る 
  1. はじめに
  2. ETL パイプラインとは?
    1. 抽出、ロード、変換(ELT)についてはどうですか?
  3. ETLパイプラインはどのように機能しますか?
    1. 抽出
    2. 変換
    3. ロード
    4. 並列性
    5. オーケストレーション
  4. 企業が ETL パイプラインを活用する理由とは?
    1. システム全体で統一されたビューを作成する
    2. データ品質を向上させるため
    3. 手動ワークフローを自動化するために
    4. 拡大と複雑さをサポートするため
    5. より良い分析と意思決定を支える
    6. リスクを管理し、準拠を維持するために
  5. ETLに関する一般的な課題は何ですか、そしてそれをどのように解決しますか?
    1. データ品質の問題
    2. 複雑な変換
    3. パフォーマンスと拡張性のボトルネック
    4. ソースシステムが多すぎて標準化が不足している
    5. セキュリティと法令遵守のリスク
    6. メンテナンス負債とパイプラインのドリフト
  6. 拡張性のあるETLパイプラインをどのように設計しますか?
    1. 拡大を念頭に置いて始める
    2. 拡大を処理するアーキテクチャを使用する
    3. 並列性を考慮して設計する
    4. クラウドの弾力性に依存する
    5. 緊急になる前に小さな問題を改善する
    6. パイプラインをモジュール化する
    7. 可視性のために構築する

ほとんどのチームは、多くのデータを必要とします。信頼でき、クエリでき、エクスポートの混乱、フィールドの不一致、または半壊したダッシュボードを解決することなく使用できる種類のデータです。データ移行を超えて、抽出、変換、ロード(ETL)パイプラインは、データを大規模かつ予期せぬ問題なく利用可能な形に変換します。2024年には、推定149ゼタバイトのデータが世界中で作成、キャプチャー、コピー、消費されているため、データプロセスを簡素化できるパイプラインを持つことが重要です。

以下は、ETLパイプラインがどのように機能するか、なぜそれが有用であるか、そしてビジネスに合わせて拡大するものをどのように設計するかについてのガイドです。

この記事の内容

  • ETL パイプラインとは?
  • ETLパイプラインはどのように機能しますか?
  • 企業がETLパイプラインを使用する理由
  • ETLに関する一般的な課題は何ですか、そしてそれをどのように解決しますか?
  • 拡張性のあるETLパイプラインをどのように設計しますか?

ETL パイプラインとは?

ETLパイプラインは、生データを使えるようにし、ある場所から別の場所に移動させるシステムです。これが略語の意味です:

  • 抽出: ソースシステムからデータを引き出します。
  • 変換: そのデータをクリーンアップし、再フォーマットします。
  • ロード: 中央集約型の宛先(例:データウェアハウス)に配信します。

実際の意味では、ETLパイプラインは、決済プラットフォーム、製品データベース、ウェブ分析ツールなどのソースからデータを徴収する。システムはそのデータを処理する、そしてクリーンアップし、フォーマットを統一し、システムを統合します。そして、最終製品をレポート、ダッシュボード、またはモデリングなどで使用できる場所に追加します。

抽出、ロード、変換(ELT)についてはどうですか?

従来、ETLパイプラインはデータをデータウェアハウスにロードする前に変換していました。しかし、今日では、より高速なコンピューティングと安価なストレージにより、多くのチームがELTを使用しています。生データを最初にロードし、その後データウェアハウス内で変換します。

ELTは異なる操作の順序ですが、ETLと同じ目的を果たします:データを一つの場所に移動し、使える状態にすることです。

ETLパイプラインはどのように機能しますか?

ETLパイプラインは、抽出、変換、ロードの3つの主要なステージで動作しますが、これはめったに整然とした線形プロセスではありません。よく構築されたパイプラインは常に動いており、異なるデータバッチを管理し、依存関係を調整し、最後のバッチが完了する前に洞察を提供します。

各ステージで何が起こるかは次のとおりです:

抽出

抽出方法はシステムに基づいて異なります。レート制限とレイテンシは、アプリケーションプログラミングインターフェース (API) のペースを決定します。本番データベースでは、チームは通常、前回の実行以降に変更されたデータのみを引き出していく増分抽出を使用して負荷を最小限に抑えます。パイプラインは、データが存在する場所からデータを引き出していくことから始まります。

ソースには以下が含まれる場合があります:

  • リレーショナルデータベース(例:PostgreSQL、MySQL)
  • サービスとしてのソフトウェア (SaaS) プラットフォーム、顧客関係管理 (CRM) システム、サポートソフトウェア、決済代行業者などのツールからのAPIを介して
  • フラットファイル、ログ、クラウドバケット、またはファイル転送プロトコル(FTP)サーバー

変換

これはパイプラインの核心であり、通常は最も関与する部分です。抽出後、データは処理するためにステージング環境に入ります。変換フェーズには以下が含まれる場合があります:

  • データのクリーンアップ: 壊れた行を削除し、重複レコードを削除し、欠損値を埋めます。
  • データのStandard化: フォーマットと単位を調和させます(例:タイムスタンプの変換、通貨コードの一致)。
  • データのマージ: ソース間で情報を結合します(例:CRMシステムのユーザーレコードと決済システムの取引履歴を一致させる)。
  • フィールドの導出: 新しいメトリックを計算するか、ビジネスロジックを適用します(例:行動パターンに基づいて「解約リスク」の顧客にタグ付けする)。

これらのステップは、構造化クエリ言語(SQL)やPythonなどのプログラミング言語、またはApache Sparkなどの変換エンジンを通じて実行できます。データのサイズと範囲に合ったものを選んでください。その結果は、ビジネスのデータモデルと分析目標に適した整然とした構造化データセットです。

ロード

データが変換されたら、最終的な宛先に移動する準備が整います。宛先は次のいずれかです:

  • クラウドデータウェアハウス(例:Amazon、BigQuery)
  • データレイク
  • レポーティングデータベース

データのロード方法は、目標によって異なります。一部のチームは新しいレコードを継続的に追加しますが、他のチームは行を挿入したり更新したりしてテーブルを最新の状態に保ちます。フルテーブルのスワップやパーティションの上書きは、データレビューに一般的です。

効率的なパイプラインは、特に拡大でバッチまたはバルクモードでのロードを処理します。これにより、コンテンツ書き込み競合を減らし、パフォーマンスのボトルネックを回避し、下流のシステムに予測可能な形式で使用可能なデータを提供します。

並列性

成熟したパイプラインでは、これらのステージは同時に行われません。代わりに、これらはずらして並行して実行されます。たとえば、月曜日に抽出されたデータが変換されている間に、火曜日の抽出を開始できます。

このパイプラインはスループットを高く保ちます。しかし、これにより可能な複雑さも生じます。途中で何かが失敗した場合、どのステージが壊れたのか、データフローを破損せずに再開する方法を把握する必要があります。

オーケストレーション

Apache Airflow、Prefect、クラウドネイティブサービス(例:AWS Glue)などのオーケストレーションプログラムがこれらのステージを管理します。以下を調整します:

  • タスクの依存関係: これにより、何が最初に実行され、何が続くかが決まります。
  • スケジューリング: これは各ステージが開始する時期(例:毎時、毎日、トリガーされたイベントに基づく)です。
  • 失敗処理: 失敗処理は、ジョブが停止または壊れたときの次のステップを提供します。
  • リソース管理: これは、どのコンピューティングジョブがどこで実行され、同時にいくつ実行されるかを決定します。

オーケストレーションがないと、ETLは脆弱になり、手動の努力が必要になります。それがあれば、データインフラストラクチャはより予測可能で信頼できるものになります。

企業が ETL パイプラインを活用する理由とは?

多くの企業が「データ駆動型」と言いますが、実際の課題は、適切なデータを一箇所に集め、ビジネスで活用可能な状態に整えることです。ETL パイプラインは、分析、レポーティング、予測、AI、監査、または投資家のアップデートに使用できるように、ビジネス全体からデータを収集、クリーニング、信頼性の高い方法を提供しています。

企業が ETL パイプラインに投資する理由は次のとおりです:

システム全体で統一されたビューを作成する

データは基本的に分散しています。売上データは CRM システムに保存されているかもしれません。取引情報は決済プラットフォームを経由します。製品の利用状況はログファイルに記録されています。これらの各システムが物語の一部を伝えています。

ETL パイプラインは、それらのソースから生データを抽出し、重複する項目(顧客 ID など)を照合し、クリーンで統一されたバージョンを中央のデータウェアハウスに格納します。例えば、SaaS ビジネスでは、ETL パイプラインを使用して、製品の使用状況、サポートチケット、請求データを結合し、口座の状態を一箇所で監視できるようにしています。

この統合されたビューは、より良い意思決定が可能になります。また、「どのマーケティングキャンペーンが最も価値の高い顧客を獲得したか?」のような複数の情報源にまたがる質問に答えるためには、こうした統合がしばしば唯一の方法となります。

データ品質を向上させるため

生データは厄介なものです。システムごとにフォーマットが異なり、ラベルの付け方が統一されていなかったり、重複や欠損が含まれていることもあります。

ETL パイプラインは品質の最低基準を保証します。データの汚れたレコードをクリーンアップし、カテゴリやフォーマットを正規化し、分析者や経営層が使うソフトウェアにデータを送る前に業務ルールを適用します。これにより、臨時の修正や項目の不一致に関する質問が減り、データの信頼性が高まります。

手動ワークフローを自動化するために

ETL を使用しない場合、チームはエクスポート、スプレッドシート、スクリプトに頼ることが多く、誰かがフィールド名を更新するとスクリプトが壊れることがあります。この方法は遅く、拡張性もありません。

ETL パイプラインはこれらのワークフローを自動化します。スケジュールやイベントに基づいて実行され、反復可能な方法でデータを移動させ、人手による全面的な監視を不要にします。

拡大と複雑さをサポートするため

ビジネスが成長するにつれ、データも成長します。つまり、顧客、イベント、システムが増えるということです。それらのデータを手作業で組み合わせることは不可能になります。

ETL パイプラインはスケールを考慮して構築されています。大量のデータを処理でき、並行して実行可能で、新たなデータソースや利用ケースの登場にも柔軟に対応します。

より良い分析と意思決定を支える

ダッシュボードや AI モデルは、それらに供給されるデータの質に左右されます。パイプラインが壊れていれば、分析結果も信頼できません。

ETL パイプラインは、意思決定者がタイムリーで信頼できるデータを持つことを保証します。具体的には以下のような内容が含まれます:

  • 週間収入
    顧客解約率のトレンド
  • セグメントごとの製品パフォーマンス
  • 不正利用のリアルタイムアラート

Stripe Data Pipelineは、企業が自動的に決済および財務データを自動的にプラットフォームに送信できるようにし、パイプラインの構築および維持の必要をなくします。

リスクを管理し、準拠を維持するために

データ、特に機密データがシステム間で移動する際には、セキュリティ侵害、規制違反、不一致なアクセス制御などのリスクがあります。

ETL パイプラインにより、ビジネスはよりコントロールしやすくなります。そして以下のことが可能になります:

  • プロセス中に機密フィールドをマスクまたは暗号化する
  • 監査のためにアクセスと変換をログに記録する
  • より強力なセキュリティ制御を持つ環境にデータを集中させる

これらのタスクは、一般データ保護規則 (GDPR)医療保険の携帯性と説明責任法 (HIPAA) などのデータ保護ルールに準拠することを容易にし、機密情報の漏えいリスクが低減されます。

ETLに関する一般的な課題は何ですか、そしてそれをどのように解決しますか?

ETLパイプラインは重要ですが、単純であることはほとんどありません。その複雑さは、関与する実際のデータ、システム、およびビジネスロジックから来ています。しかし、適切なアーキテクチャと習慣があれば、ほとんどの問題を解決できます。

ここでは、ETLに関する最も一般的な問題とそれを克服する方法を示します:

データ品質の問題

パイプラインは完璧に実行されることができますが、ソースデータが不一致または欠陥がある場合、低品質の結果を提供することがあります。

なぜそれが起こるのか

  • システム間でフォーマットやコードが衝突する(例:「CA」とは)。“カリフォルニア”).
  • 重複、欠損値、または不正なエントリがあります。
  • 下流のフィールドは上流のエラーから計算されます。

何が助けになるか

  • パイプラインにデータ検証を組み込む(最後のステップとしてではなく)。
  • 外れ値や予期しないヌル値のための閾値とアラートを設定します。
  • 「クリーン」と見なされるルールを定義し、それを文書化します。
  • 悪い行を廃棄するのではなく、隔離します。

複雑な変換

いくつかの変換は簡単です。他のものはすぐに複雑になります。特に、ソースを統合したり、複数のステップのロジックを適用したりする場合です。

なぜそれが起こるのか

  • ビジネスルールは変更され、重ねられ、または文書化が不十分です。
  • システム間の結合には多くのエッジケースの処理が必要です。
  • 変換が洗練されていないとパフォーマンスが低下します。

何が助けになるか

  • 変換をテスト、デバッグ、再利用できるモジュール式のステップに分けます。
  • バージョン管理を使用して、時間の経過に伴うロジックの変更をトラックします。
  • 重い計算を分散エンジンに移動するか、可能であればデータウェアハウスに追加します。
  • 変換コードを本番コードのように扱います:ピアレビュー、テスト、監視します。

パフォーマンスと拡張性のボトルネック

1百万レコードで正常に動作するパイプラインは、1千万で停止するか、完了するのに時間がかかることがあります。

なぜそれが起こるのか

  • プロセスは、並行して実行できる場合でも直列で実行されます。
  • システムは、入力/出力(I/O)、中央処理装置(CPU)、またはメモリの制限に達します。
  • コードはデータを行ごとに処理し、バルクでは処理しません。
  • 繰り返しの完全抽出はソースシステムを過負荷にします。

何が助けになるか

  • あなたにとって意味のある並行性を設計します:日付、地域、顧客IDでパーティション分けします。
  • 可能な限りフルリフレッシュの代わりにインクリメンタルロードを使用します。
  • 重い処理を柔軟なシステム(例:分散コンピューティング、自動スケーリングのデータウェアハウス)にオフロードします。
  • パイプラインを定期的にプロファイリングし、最も遅いステップを強化します。

ソースシステムが多すぎて標準化が不足している

新しいソースが追加されるたびに難易度が増します:APIが異なり、フィールド名が衝突し、一部のソースは1分ごとにデータを送信し、他のソースは週に1回送信します。

なぜそれが起こるのか

  • 多くのビジネスシステムは導入のために設計されていませんでした。
  • ソースフォーマットが一貫していません (例: CSVエクスポート、API、従来型データベース)。
  • チームは調整なしに異なる方法でデータを引き出します。

何が助けになるか

  • 可能な限り抽出方法をStandard化します—共有コネクタや中央集約型の取り込みツールを使用します。
  • 各ソースのロジックを分離します(メンテナンスを容易にするために別々のモジュールやスクリプト)。
  • パイプラインの早い段階でフィールド名とメタデータを正規化します。
  • 可能な限り変更データキャプチャー(CDC)を使用して、更新のみを同期します。

セキュリティと法令遵守のリスク

特に顧客や財務情報などの機密データを移動することはリスクを生じさせます。パイプラインは暗号化、プライバシールール、および監査トレイルを考慮する必要があります。

なぜそれが起こるのか

  • システムは不必要に機密フィールドを抽出します。
  • 一時的なストレージは保護されていません。
  • 誰が何にアクセスしたか、いつアクセスしたかのログがありません。

何が助けになるか

  • 変換中に機密データをマスクまたは暗号化します。
  • ステージングエリアへのアクセスを制限し、役割ベースの制御を適用します。
  • 安全なプロトコルを使用して抽出と送金を行います。
  • 監査ログを維持し、リクエストに応じて削除または非表示をサポートします。

メンテナンス負債とパイプラインのドリフト

パイプラインは、ソーススキーマとビジネス定義が変化し、ジョブが静かに失敗するため、継続的な注意が必要です。

なぜそれが起こるのか

  • パイプラインは可視性が欠如しているため、問題が見逃されます。
  • 誰も日々のパイプラインを管理していません。
  • ロジックはハードコーディングされており、文書化されていません。

何が助けになるか

  • パイプラインを生きたインフラストラクチャのように扱います:バージョン管理され、監視され、テスト可能です。
  • ロギング、メトリクス、健全性チェックを追加します。
  • オーケストレーションソフトウェアを使用して依存関係とリトライをトラックします。
  • 一般的な失敗のためのランブックを作成します—記憶に頼らないでください。

適切なプラクティスは、これらの課題を軽減し、再発する緊急事態を防ぐことができます。そして、それらはあなたのビジネスと共に成長できる透明でメンテナブル、かつレジリエントなパイプラインを構築するのに役立ちます。

拡張性のあるETLパイプラインをどのように設計しますか?

ETLパイプラインの真のテストは、データが10倍に増加したとき、あなたのビジネスモデルが変化したとき、または3つの新しいシステムがオンラインになったときにどれだけ機能するかです。柔軟なパイプラインは、その変化を壊れず、遅くならず、または複雑になりすぎずに吸収できます。

パイプラインに拡張性を組み込む方法は次のとおりです:

拡大を念頭に置いて始める

拡張性は、より多くの準備ができていることです:

  • ソース
  • 取引額
  • アクセスが必要なチーム
  • 規制上のオーバーヘッド

このパイプラインが10倍のデータをサポートする必要がある場合、または5つの新しいダッシュボードを埋める必要がある場合、最初に壊れる可能性のあるものを考慮してください。6か月後に高額な再構築を強いられないように、十分な容量で構築してください。

拡大を処理するアーキテクチャを使用する

一部のパイプラインは、最初から水平に拡大しないシステムやプロセスに依存しているため、運命が決まっています。このようなことを避けるための工夫:

  • 複数のマシンで並行してジョブを実行できる処理エンジンを選択する
  • ストレージとコンピューティングを分離でき、それぞれを独立して拡大できるデータベースやウェアハウスを使用する
  • 行ごとの操作ではなく、バッチロードやパーティション書き込みを行う

パイプラインのどの部分でも1台のマシンが最大になると、それがボトルネックです。

並列性を考慮して設計する

並列性は、実行時間を最小限に抑え、容量を増やす方法です。直列パイプラインは安全に感じるかもしれませんが、遅いです。1つのファイル、顧客、または地域を一度に処理する場合、スループットは制限されます—インフラストラクチャがどれだけ強力であっても。代わりに、あなたは次のことをすべきです:

  • 論理単位(例:日付、地域、顧客ID)でデータを分割する
  • 依存関係が許す場合は、抽出、変換、ロードのステップを同時に実行する
  • 各ステージをステートレスにして、複数のインスタンスが並行して実行できるようにする

クラウドの弾力性に依存する

クラウドインフラストラクチャは、過剰なプロビジョニングなしでETLを拡大させるのを容易にします。以下の操作が可能です。

  • 需要がピークに達したときに自動的にコンピューティングを拡大する
  • 容量を心配せずにステージングのためにオブジェクトストレージサービスを使用する
  • 管理されたETLサービスにリソース割り当ての重労働を任せる

緊急になる前に小さな問題を改善する

スケーリングに関しては、小さな選択が大きな影響を与えます。役立ついくつかのアクションには次のものがあります:

  • 読み書きを速くするためにステージング用にカラム型ファイルフォーマット(例:Parquet)を使用する
  • 大きなファイルを圧縮してI/O時間を短縮する
  • 効率的なSQLクエリを書くこと、不要な変換を避けること
  • ボトルネックを早期に見つけるためにジョブをプロファイリングする

パイプラインをモジュール化する

モジュール化されたパイプラインは、成長、テスト、トラブルシューティングが容易です。それらは組織的にも技術的にも拡大します。新しいデータソースを追加したり、変換ルールを変更したりする必要があるとき、2,000行のモノリスを解体したくはありません。代わりに、あなたは次のことをすべきです:

  • パイプラインを論理的な段階に分ける(例:取り込み、プロセス、ロード)
  • 変換をカプセル化して、独立して更新または再利用できるようにする
  • 入力、出力、および依存関係を明確に文書化する

可視性のために構築する

パイプラインが成長するにつれて、その内部で何が起こっているのかを理解する必要性も高まります。見ることができないものは修正したり拡大したりできません。次のことを確認してください:

  • ジョブの実行時間、行数、エラー率、新鮮さを監視する
  • 障害や閾値のアラートを設定する
  • データの系譜をトラックして、チームがデータの出所とその変化を知ることができるようにする
  • 問題を迅速にデバッグできるように、十分なコンテキストで各ステップでイベントをログに記録する

良好な可視性は、自信を持って拡大するためのものです。

この記事の内容は、一般的な情報および教育のみを目的としており、法律上または税務上のアドバイスとして解釈されるべきではありません。Stripe は、記事内の情報の正確性、完全性、妥当性、または最新性を保証または請け合うものではありません。特定の状況については、管轄区域で活動する資格のある有能な弁護士または会計士に助言を求める必要があります。

今すぐ始めましょう

アカウントを作成し、支払いの受け付けを開始しましょう。契約や、銀行情報の提出などの手続きは不要です。貴社ビジネスに合わせたカスタムパッケージのご提案については、営業担当にお問い合わせください。

Data Pipeline

数回クリックするだけで、Stripe Data Pipeline が最新のすべての Stripe データとレポートをご利用のデータウェアハウスに送信します。

Data Pipeline のドキュメント

Stripe データを使用して、ビジネスの状況を把握します。