AWS/GCPハイブリッド基盤データエンジニア/長期プロジェクト

本日 21時00分 に公開

業務内容:
- AWS Glue(Apache Spark)を用いた分散処理・ETL開発
- S3/Lake Formationによるデータレイク管理・セキュリティ設計
- BigQueryを活用したデータウェアハウス構築、データモデリング、クエリ最適化
- AWSとGCP間のデータ連携パイプラインの設計・最適化
- Terraformによるマルチクラウド環境のIaC管理・自動化
- Airflow等を用いたワークフロー管理、CI/CDパイプライン整備
- データ品質テストの自動化

担当工程:
要件定義、基盤設計、ETL実装、パフォーマンスチューニング、運用保守、CI/CD構築

スキル:
必須:AWS(S3、IAM、VPC等)でのインフラ構築・運用経験、GCP(特にBigQuery)での構築・IAM・ネットワーク設定経験、BigQueryでの分析SQL実務経験、AWS Glue(PySpark)でのETL開発・パフォーマンスチューニング、TerraformでのマルチクラウドIaC実践経験
尚可:Looker Studio等によるBIダッシュボード構築、Airflow/MWAAでのジョブ管理、Delta Lake/Iceberg/Hudiを用いたデータレイクハウス設計、Kinesis/Firehose/Pub/Sub等のストリーミング処理経験、Python/Go/Javaでのツール開発

稼働場所:
東京都(現場勤務)

その他:
業種:情報・通信・メディア、長期案件、女性(33歳まで)対象、ハイブリッドクラウド基盤の構築・運用に特化したプロジェクト

案件ID:330661





前の案件 案件一覧へ戻る次の案件