データエンジニア/Databricks・Azureで物流可視化基盤最適化(神奈川)

本日 02時40分 に公開

業務内容:
- Databricks(PySpark, Scala)環境のパフォーマンス最適化
- 大規模データ処理の実装・改修(数億行規模)
- Azureデータ基盤のパフォーマンス改善
- 保守・構成管理およびリファクタリング

担当工程:
要件定義、設計、実装、テスト、運用保守

スキル:
必須:DatabricksでのPySpark/Scalaコーディング経験、Sparkクラスタの最適化知識、数億行規模の大規模データ処理経験(Hadoop/Spark)
尚可:Azure Data Factory・SQL Database等の構築・運用経験、Azureインフラ(VNet、Private Link、Load Balancer)知識、Transact‑SQLによるクエリ最適化、Python・PowerShell等スクリプト作成、GitHub等でのソースコード管理

稼働場所:
神奈川県(週1回程度出社、残りはリモート)

その他:
業種は自動車・輸送機器(トラックメーカー)向け物流可視化基盤のデータ処理最適化プロジェクト、開始時期は2026年3月予定

案件ID:355807





前の案件 案件一覧へ戻る次の案件