Oracle Cloud Infrastructure(OCI)Data Flowは、フルマネージドのApache Sparkサービスであり、インフラストラクチャの導入や管理をすることなく、非常に大規模なデータセットに対して処理タスクを実行します。開発者は、Spark Streamingを使用して、継続的に生成されたストリーミング・データに対してクラウドETLを実行することもできます。これにより、開発者はインフラストラクチャ管理ではなくアプリ開発に集中できるため、迅速なアプリケーション配信が可能になります。
RoninがどのようにOCI Data FlowとApache Sparkを活用し、すべての臨床判断がデータに基づき、個々の患者に合わせてパーソナライズされ、確信を持って効率的に実行される未来を実現したかをご覧ください。
このOracle Developer Liveイベントで、データ統合とデータフローを利用してデータの使用方法を最適化する方法をご確認ください。
Data FlowがSparkアプリケーションの実行をどのように簡単、安全、そして単純にするかを学びましょう。
OCI Data Flowは、Sparkジョブが完了したときに、インフラストラクチャ・プロビジョニング、ネットワークセットアップ、およびティアダウンを処理します。ストレージとセキュリティも管理され、ビッグデータ分析用のSparkアプリケーションの作成と管理に必要な作業が少なくて済みます。
OCIデータフローを使用すると、インストール、パッチ適用、またはアップグレードするクラスターがないため、プロジェクトの時間と運用コストを節約できます。
OCI Data Flowは、プライベート専用リソースで各Sparkジョブを実行するため、事前のキャパシティプランニングが不要です。
OCIデータフローを使用すると、IT部門はSparkジョブの実行中に使用するインフラストラクチャ・リソースに対してのみ支払う必要があります。
Oracle Cloud Infrastructureの比類のないセキュリティを活用します。認証、分離、およびその他すべての重要なポイントに対処します。最高レベルのセキュリティでビジネスクリティカルなデータを保護します。
OCI Data Flowは、制御されたデータとアクセスにOracle CloudのIdentity and Access Managementシステムをネイティブに使用するため、データの安全性が維持されます。
クォータと制限を設定して、OCIデータフローで使用可能なリソースを管理し、コストを管理します。
OCIデータフローは、ログ管理や運用UIへのアクセスなどの一般的な運用タスクを簡素化し、開発者がアプリケーションの構築に集中する時間を解放します。
OCIデータフローでは、運用情報を単一の検索可能なUIに集約することで、Sparkユーザーが何をしているかを簡単に確認できます。
Sparkジョブのトラブルシューティングを行うためのログとツールの追跡には数時間かかる場合がありますが、ログ出力、Spark履歴サーバーなどの統合ビューでは時間がかかりません。
並べ替え、検索、フィルタリングを行って、過去のアプリケーションを調査し、高額な仕事に適切に対処して、不要な支出を回避します。
管理者は、実行時間が長すぎる、またはリソースを消費しすぎてコストを押し上げているライブSparkジョブを簡単に検出して停止できます。
ビッグデータエコシステムには多くの可動部分と統合が必要ですが、OCIデータフローは既存のSpark投資およびビッグデータサービスと互換性があるため、サービスの管理と必要な場所での結果の提供が容易になります。
Hadoopまたはその他のビッグデータサービスから既存のSparkアプリケーションを移行します。
Sparkジョブの出力を自動的に、そして安全にキャプチャして保存し、UIまたはREST APIを介してそれらにアクセスして、分析を利用できるようにします。
アプリケーションの作成から実行、Sparkジョブの結果へのアクセスまで、OCIデータフローのすべての側面をシンプルなRESTAPIを使用して管理できます。
Oracle Cloud Infrastructure Data Flowでは、データ処理に必要な時間を75%削減し、コストを300%以上削減することで、クライアントのSLAを満たしました。Oracleのグローバルサービス統合および分析アーキテクチャ、 デリバリーディレクター、Arun Nimmala
Oracle Cloud Infrastructure Data Flowは、Sparkジョブを監視し、コストを最適化し、容量を解放することにより、ETLオフロードを管理します。
OCI Data Flowの出力管理機能は、Sparkを使用してデータをクエリする機能を最適化します。
リソースを自動的にシフトして、予測できないジョブを処理し、コストを削減できます。ダッシュボードは、将来の計画のために使用量と予算のビューを提供します。
Sparkと機械学習の開発者は、Sparkの機械学習ライブラリを使用し、OCIデータフローの利点を使用してモデルを実行できます。