求人・案件情報
データエンジニア/Databricks・Azureで物流可視化基盤最適化(神奈川)
本日 02時40分 に公開
業務内容:- Databricks(PySpark, Scala)環境のパフォーマンス最適化
- 大規模データ処理の実装・改修(数億行規模)
- Azureデータ基盤のパフォーマンス改善
- 保守・構成管理およびリファクタリング
担当工程:
要件定義、設計、実装、テスト、運用保守
スキル:
必須:DatabricksでのPySpark/Scalaコーディング経験、Sparkクラスタの最適化知識、数億行規模の大規模データ処理経験(Hadoop/Spark)
尚可:Azure Data Factory・SQL Database等の構築・運用経験、Azureインフラ(VNet、Private Link、Load Balancer)知識、Transact‑SQLによるクエリ最適化、Python・PowerShell等スクリプト作成、GitHub等でのソースコード管理
稼働場所:
神奈川県(週1回程度出社、残りはリモート)
その他:
業種は自動車・輸送機器(トラックメーカー)向け物流可視化基盤のデータ処理最適化プロジェクト、開始時期は2026年3月予定
案件ID:355807
