Pythonベテラン/ETLリーダー募集:AWS・Airflow活用データパイプライン構築

昨日 22時08分 に公開

業務内容:
Python、AWS、Airflow、Pandas、Kinesis、Spark、Redshift、Glue、Jenkins、Ansible、Kafka、MySQL、MongoDB 等を用いたデータパイプライン(ETL)構築と、障害発生時の自動切り分け機能の実装。

担当工程:
要件定義、アーキテクチャ設計、DAG・パイプライン実装、テストコード作成、CI/CD構築、運用支援。

スキル:
必須:
- Python 開発経験10年以上
- 5名規模の開発チームリーダー経験
- データパイプライン(ETL)構築経験
- AWS 上でのシステム開発経験
- サーバレスワークフロー(Airflow/DAG)開発経験
- Pytest 等を用いたテスト実装経験
- マイクロサービス・サーバレスアーキテクチャの理解
- DWH・ビッグデータ基盤の知識
尚可:
- Pandas、Kinesis、Spark、Redshift、Glue の実務経験
- Jenkins、Ansible、Lambda 等の CI/CD・サーバレス開発経験
- RDB(MySQL、MongoDB 等)を用いたシステム開発経験
- Kafka 等の OSS 活用経験
- AWS マネージドサービス(Redshift、SQS/SNS、RDS)利用経験
- アジャイル開発経験
- JIRA、Confluence 等のツール利用経験

稼働場所:
東京都品川(リモート併用、出社あり)

その他:
業種:情報・通信・メディア、プロジェクト規模:5名チーム、開始時期:相談、外国籍不可、スキルマッチ率70%で可

案件ID:286217





前の案件 案件一覧へ戻る次の案件