データ処理最適化/Databricks・Azure/神奈川県(週1出社)

5日前 12時40分 に公開

業務内容:
- Databricks(PySpark・Scala)環境のパフォーマンス最適化
- 数億件規模の大規模データ処理の実装・改修
- Azure上のデータ基盤(Data Factory、SQL 等)のパフォーマンス改善
- 保守・構成管理およびリファクタリング

担当工程:
設計・実装・チューニング・保守

スキル:
必須:Databricks/Spark の開発経験(3年以上)、Spark クラスタのチューニング経験、大規模データ(数億件規模)処理経験
尚可:Azure 環境(Data Factory、SQL 等)の構築経験、SQL クエリの最適化スキル

稼働場所:
神奈川県(週1出社、開始時は週3出社の可能性あり)

その他:
業種:自動車・輸送機器(トラック製造販売メーカー向けリアルタイム可視化アプリ)
開始時期:3月開始可能
備考:外国籍不可、プロパー2名参画中

案件ID:339119





前の案件 案件一覧へ戻る次の案件