求人・案件情報
データエンジニア/Databricks PySpark・Scala・Azure活用/トラックメーカー物流可視化基盤
本日 06時00分 に公開
業務内容:- Databricks(PySpark, Scala)環境のパフォーマンス最適化
- 大規模データ処理の実装・改修
- Azure データ基盤のパフォーマンス改善
- 保守・構成管理およびリファクタリング
担当工程:
データ基盤の設計・実装・チューニング・保守
スキル:
必須:Databricksでのコーディング(PySpark, Scala)経験、Sparkクラスタ構造・最適化知識、大規模データ(数億行)処理経験
尚可:Azure データ基盤構築・運用経験(Data Factory, SQL Server/Database, Databricks, Functions, DevOps 等)、Azure インフラ知識(VNet, Private Link, Private Endpoint, Load Balancer 等)、Transact‑SQLによるクエリ最適化経験、Python・PowerShell等スクリプト言語、GitHubなどのソースコード管理経験
稼働場所:
神奈川県(開始1ヶ月は週3出社、その後は週1出社)
その他:
業種:サービス業/情報・通信・メディア(物流可視化プラットフォーム)
開始時期:2023年3月開始予定
プロジェクトは既に数名がアサイン済みで、迅速に推進中
案件ID:345263
