求人・案件情報
データ処理最適化/Databricks・Azure/神奈川県(週1出社)
5日前 12時40分 に公開
業務内容:- Databricks(PySpark・Scala)環境のパフォーマンス最適化
- 数億件規模の大規模データ処理の実装・改修
- Azure上のデータ基盤(Data Factory、SQL 等)のパフォーマンス改善
- 保守・構成管理およびリファクタリング
担当工程:
設計・実装・チューニング・保守
スキル:
必須:Databricks/Spark の開発経験(3年以上)、Spark クラスタのチューニング経験、大規模データ(数億件規模)処理経験
尚可:Azure 環境(Data Factory、SQL 等)の構築経験、SQL クエリの最適化スキル
稼働場所:
神奈川県(週1出社、開始時は週3出社の可能性あり)
その他:
業種:自動車・輸送機器(トラック製造販売メーカー向けリアルタイム可視化アプリ)
開始時期:3月開始可能
備考:外国籍不可、プロパー2名参画中
案件ID:339119
