新着案件をメール受信

いつでもキャンセルできます

検索キーワード:Spark

検索結果:84件
業務内容:データウェアハウス移行支援作業。DataIntegrationHubからAzureDataFactoryへの移行作業が主な業務。ADF移行方針決定、検証、連携テストを行う。担当工程:設計、検証、テストスキル:必須:-AzureDataFactoryの設計経験-SQL(ストアドプロシージャ等)の設計経験-コミュニケーションスキル尚可:-DataIntegrationHubの知識と経験-ApacheSparkやDatabricksの知識と経験-SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験案件情報:-業界:情報・通信・メディア-勤務地:東京都-稼働場所:テレワーク(入場から2週間程度は大手町近辺)-期間:2025年6月から7月を予定-Web面談2回(別途事前面談1回の場合あり)
業務内容:大手SIerのシステムEOSL対応プロジェクトにて、以下の業務を担当。-ApacheSparkからDatabricksへのマイグレーション-Databricksを利用した開発標準の策定-プロジェクトリード担当工程:-マイグレーション-開発標準策定-プロジェクトマネジメントスキル:必須:-Databricksを用いたマイグレーションの経験-テックリードの経験尚可:-Spark処理のマイグレーションの経験その他条件:-勤務地:東京都(原則リモート)-業界:情報・通信・メディア-稼働時間:9:00~18:00-募集人数:1名
##案件1業務内容:B2CのWebアプリケーションシステムの設計・開発、サービス維持対応。基本設計~リリース、リリース後の保守(問合せ対応、障害対応)まで。担当工程:基本設計~リリース、保守スキル:・PHP、JavaScript、HTML、CSS、SQL・Webシステムの設計・開発経験・本番システム保守経験勤務地:東京都##案件2業務内容:生保システムのマイグレーション担当工程:設計スキル:・AzureApacheSparkでの設計経験・Azureを使用した設計経験・生保システム開発経験(尚可)勤務地:東京都##案件3業務内容:証券システムのEUC構築(要件定義、設計、開発、テスト、リリース、運用保守)スキル:・AccessVBAによるEUC構築経験・コミュニケーション能力・証券システムの業務知識(尚可)勤務地:東京都##案件4業務内容:SAP/S4HANAの維持保守、エンハンス業務・COチームの上流牽引・ユーザ問合せ対応・マスタ登録等の特殊作業・小規模改修の見積り、要件定義、設計、推進・開発ベンダのコントロールスキル:・COの知見およびFI・SD・MMとの連携知識・維持管理経験・コミュニケーション能力・積極的な業務遂行能力勤務地:神奈川県横浜市##案件5業務内容:自治体システムのリプレース・ダッシュボード機能新規構築・メール送信機能・ファイルアップロード機能・帳票出
業務内容:AWS基盤上での次期情報系基盤の開発支援・各種データパイプラインの設計・開発・インタフェースレイヤの構築(外部システムとのデータ連携)・物理レイヤにおけるデータ登録・加工・データマート構築・インタフェース~物理レイヤの一気通貫ジョブの作成・テスト計画および実施・ジョブ設計書、テーブル設計書、ETL設計書等のドキュメントレビュー・Backlogを用いた課題管理・ベンダーとの折衝、定例MTGへの参加場所:東京都品川区必要スキル:・AWS製品に関する知識(EventBridge,StepFunctions,Lambda,Glueのいずれかを用いた開発経験)・SQL開発経験(複数テーブルJOINを含む)・StoredProcedureの設計/開発経験・Pythonの開発経験(PySparkでのデータパイプライン構築経験歓迎)・Gitを用いたチーム開発経験・情報系システムの運用経験またはシステム運用全般の経験・ジョブフロー設計書のレビュー経験歓迎スキル:・AWSの基本サービス知識(S3,EC2,SG,ELB等)・Snowflakeを利用した開発経験・TableauServerの構築/運用経験・Tableauダッシュボードの開発経験
業務内容:DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業ADF移行方針決定、検証、連携テスト作業場所:東京都大手町テレワーク中心(一部オフィス勤務あり)必須スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験単価:70万円~75万円(スキル見合い)期間:2025年6月~7月面談:Web面談2回
業務内容:建築業界向け会計パッケージの開発・保守業務-フロントエンド開発-サーバーサイド開発-データベース設計・構築-インフラ環境の構築・運用開発環境:フロントエンド:JavaScript,Angular,HTMLサーバーサイド:Java8,SpringBoot,Elasticsearch,ApacheSparkデータベース:AWSAurora,DynamoDB,ApacheCassandraインフラ:AWSEC2,S3,EBS,ElastiCache担当工程:基本設計~結合テスト・保守必須スキル:-Java、JavaScriptの開発経験3年以上-フロントエンド、サーバーサイド両方の開発経験歓迎スキル:-詳細設計以降の経験-リモートワークでの就業経験勤務地:東京都(フルリモート)期間:2023年6月~中長期就業時間:10:00~19:00(予定)単価:~62万円
業務内容:建築会社向け会計パッケージの開発・保守基本設計~結合テスト・保守必要スキル:・Java,JavaScriptの開発経験3年以上・フロントエンド:Javascript,Angular,HTML・サーバーサイド:Java8,SpringBoot,Elasticsearch,ApacheSpark・データベース:AWSAurora,AWSDynamoDB,ApacheCassandra・インフラ:AWSEC2,S3,EBS,ElastiCache稼働条件:・フルリモート・就業時間:10:00~19:00・場所:東京都単価:~70万円開発環境:・フロントエンド:Javascript,Angular,HTML・バックエンド:Java8,SpringBoot・データベース:AWSAurora,DynamoDB,Cassandra・インフラ:AWS各種サービス
業務内容:DWH移行支援作業を実施。DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業。-ADF移行方針決定、検証、連携テスト-AzureDataFactoryの設計-SQL(ストアドプロシージャ等)の設計勤務地:東京都千代田区※テレワークメイン(月数回程度の出社有)必要スキル:-AzureDataFactoryの設計経験-SQL(ストアドプロシージャ等)の設計経験-コミュニケーションスキル歓迎スキル:-DataIntegrationHubの知識と経験-ApacheSparkやDatabricksの知識と経験-SQLServerまたはAzureSynapseDedicatedPoolの知識と経験面談:2回(Web面談)単価:70万円~75万円(スキル見合い)
業務内容:・DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業・ADF移行方針決定、検証、連携テスト場所:東京都(テレワークメイン、一部大手町での作業あり)必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・MQの知見・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験期間:2025年6月~
業務内容:DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業DWH移行支援作業ADF移行方針決定、検証、連携テスト勤務地:東京都台東区※テレワークメイン、一部客先作業あり必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験単価:70万円~75万円(スキル考慮)期間:2025年6月~7月
業務内容:-DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業-ADF移行方針決定、検証、連携テスト作業場所:東京都※テレワークメイン、一部作業あり必要スキル:-AzureDataFactoryの設計経験-SQL(ストアドプロシージャ等)の設計経験-コミュニケーションスキル歓迎スキル:-DataIntegrationHubの知識と経験-MQの知見-ApacheSparkやDatabricksの知識と経験-SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験
業務内容:DWH移行支援作業として以下を担当・DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業・ADF移行方針決定、検証、連携テスト勤務地:東京都千代田区※テレワーク中心(入場から2週間程度は客先常駐)必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・MQの知見・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験
業務内容:電力システムのSnowflake化対応業務基本設計から結合試験までの対応一部期間名古屋への出張あり(3カ月程度)フル常駐担当工程:基本設計結合試験必須スキル:・JAVAの開発経験・DB実務経験尚可スキル:・Linux実務経験・Snowflakeまたは、Hadoop(Spark)実務経験・電力系の業務経験、知識勤務地:兵庫県神戸市その他:・リモートワークなし・出張可能な方が高評価
業務内容:-DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業-ADF移行方針決定、検証、連携テスト-DWH移行支援作業必要スキル:-AzureDataFactoryの設計経験-SQL(ストアドプロシージャ等)の設計経験歓迎スキル:-DataIntegrationHubの知識と経験-ApacheSparkやDatabricksの知識と経験-SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験勤務地:東京都中央区単価:~80万円※経験・知見により上乗せ相談可備考:週5フルリモート(開始2週間程度はフル出社)
業務内容:DIHからAzureDataFactoryへの移行作業ADF移行方針決定、検証、連携テスト必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験歓迎スキル:・DataIntegrationHubの知識と経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験勤務地:東京都中央区その他:・期間:6月~長期・勤務時間:9時00分~18時00分・残業見込:0~10時間・テレワーク:週5※開始2週間程度はフル出社
業務内容:・DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業・ADF移行方針決定、検証、連携テスト場所:東京都千代田区必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験歓迎スキル:・DataIntegrationHubの知識と経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験就業形態:週5フルリモート(開始2週間は出社)面談:オンライン面談
案件場所:東京都台東区テレワーク可(一部客先作業あり)業務内容:・DWH移行支援作業・DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業・ADF移行方針決定、検証、連携テスト・AzureDataFactoryの設計・SQL(ストアドプロシージャ等)の設計必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験単価:70~75万円(スキル考慮)期間:2025年6月~7月面談:Web面談2回
業務内容:計算ライブラリの変更(spark→Snowflake)及び、オンプレ→クラウドの載せ替えを実施する開発業務-基本設計~結合試験-Javaプログラミング-Snowflake操作-Windows環境、LinuxOSでの作業担当工程:基本設計~結合試験勤務地:兵庫県神戸市※結合試験フェーズ時は愛知県名古屋市へ週3回の出張(約3ヶ月)必要スキル:-Javaの開発経験(5年以上)-DBを扱った実務経験(3年以上)歓迎スキル:-Linuxを扱った実務経験(1年以上)-Snowflakeまたは、Hadoop(spark)を扱った実務経験-電力系の知識プロジェクト規模:10名以上
業務内容:メガバンク向けAMLパッケージのカスタマイズ開発海外ベンダーパッケージ導入における日系パートナーとしての開発業務参画前にベンダーのデータエンジニア研修(2か月/英語)を受講場所:東京都担当工程:カスタマイズ開発必要スキル:・Java開発経験7年以上・ビジネスレベルの英語/日本語・日常会話レベルの英語力歓迎スキル:・ScalaまたはSpark開発経験・知識その他:・面談はWeb面談2回・面談では英語使用
業務内容:RDBで構築されたDWHの蓄積機能をBigQueryに移行する移行に向けて現行スクリプトの解析や移行設計を実施する作業場所:東京都千代田区(基本リモート、週1回出社)必要スキル:・SQLを利用したデータエンジニアリング経験(5年以上)・開発および設計経験歓迎スキル:・Python/spark・GCPに関する知識・リーダー経験期間:2025年5月~12月募集人数:1名備考:・6月以降に追加募集を予定
業務内容:求人検索サービスにおけるデータエンジニアとして以下の業務を担当・データパイプラインの設計/実装/運用・データウェアハウス(DWH)の設計/構築/運用・BIツールを活用したデータ可視化基盤の構築・データ品質管理、データガバナンスの整備担当工程:要件定義/設計/開発/運用保守スキル:【必須スキル】・DWH設計、構築経験・SQLを用いたデータ加工の実務経験・Python,Javaなどのプログラミング言語経験・クラウドサービス(AWS/GCP等)の実務経験【歓迎スキル】・Hadoop,Sparkなどの分散処理基盤の実務経験・データ分析基盤の設計/構築経験・BIツール(Tableau,Looker等)の実装経験・アジャイル開発経験勤務地:基本リモート単価:95万円以上
業務内容:キャリア会社のFraudManagementSystem(不正利用検知システム)の内製化案件。現行のパッケージ製品から自社開発への移行を行う。スケジュール:-2025年9月まで:アーキテキチャの検討、概算見積-2025年10月~:要件定義、技術検証-2026年4月~:設計/開発-2027年1月~:システムイン必須スキル:-PySpark/ApacheKafka/ApacheFlinkのいずれかの使用経験歓迎スキル:-バッチ系におけるETLアーキテクチャの検討経験-数億件レベルの大量データ処理アーキテクチャの検討経験-コンテナAPIの開発経験(k8s)-SPA(Single-pageapplication)のコンテナ構築に関する知見場所:東京都品川区(一部リモート可)
業務内容:・AWS上での開発・Python開発・GitやCI/CD操作・データ収集/分析基盤の構築・アーキテクチャの選定・MLOps基盤など機械学習関連の業務必須スキル:・AWS上での開発経験・Python開発経験・Git操作・上流工程またはアーキテクチャ選定の経験歓迎スキル:・MLOps基盤など機械学習に関する基礎知識または経験・データ収集基盤、データ分析基盤などの基盤構築経験・SnowflakeなどDWHの設計経験・Pythonを利用したETL/ELT処理などのデータ加工経験・Terraform、CDK、Serverless、コンテナ/k8s、ApacheSparkなどの利用・構築経験・CI/CD環境構築経験就業場所:フルリモート単価:85万円
業務内容:キャリア向けFraudManagementSystem(不正利用検知システム)の内製化プロジェクト-バッチ系におけるETLアーキテクチャの検討-数億件レベルの大量データ処理アーキテクチャの検討-コンテナAPIの開発(k8s)-SPA(Single-pageapplication)のコンテナ構築必須スキル:-PySpark/ApacheKafka/ApacheFlinkのいずれかの使用経験歓迎スキル:-バッチ系におけるETLアーキテクチャの検討経験-数億件レベルの大量データ処理アーキテクチャの検討経験-コンテナAPIの開発経験(k8s)-SPA(Single-pageapplication)のコンテナ構築に関する知見場所:東京都品川区
業務内容:高速道路向け渋滞所要時間情報提供システムの既存機能における精度改善対応の開発担当工程:内部設計からシステム試験までの下流工程必要スキル:・Java・Scala(尚可)・ApacheSpark(尚可)場所:大阪府大阪市北区期間:2025年6月~2026年3月(翌年度延長の可能性あり)