新着案件をメール受信
いつでもキャンセルできます
検索キーワード:Spark
検索結果:122件
業務内容:クレジットカードシステム開発、加盟店データ中継システム新規構築(ホスト→Hadoop基盤へのデータ連携)基本設計・詳細設計・製造・テスト・本番リリースまで一連の作業担当工程:基本設計、詳細設計、製造、テスト、本番リリーススキル:必須:-Java開発経験(目安:5年以上)-Linux、Windows(ファイル連携システム開発のためDB無)尚可:-加盟店精算系知識および経験-Sparkフレームワーク-ApacheParquet、HDFS、Hive、VSCode、GitLab-COBOL(現行システム解析)勤務地:東京都業界:金融・保険業 |
業務内容:AzureDatabricks/Fabricを中心としたデータ分析基盤の設計/構築/実装のリードSQL、ETL、PySpark、Databricksを活用し、Lakehouseアーキテクチャに沿った分析ソリューションの開発要件定義からデリバリー、技術リード、ドキュメント化を担当必要スキル:日本語/英語バイリンガルテクニカルリードの経験AzureDatabricksもしくはPySparkを用いた開発経験SQLによるクエリ開発経験Azureサービスとの連携経験(AzureDataLake、AzureSynapseなど)尚可スキル:CI/CDやGitなどのDevOps経験PowerBI、MicrosoftFabric経験勤務地:東京都勤務形態:フルリモート可※PC受け取りなどで出社あり業界:情報・通信・メディア |
業務内容:AWS基盤上での次期情報系基盤の開発支援をご担当いただきます。各種データパイプラインの設計・開発、インタフェースレイヤの構築(外部システムとのデータ連携)、物理レイヤにおけるデータ登録・加工・データマート構築、インタフェース~物理レイヤの一気通貫ジョブの作成、テスト計画および実施、ジョブ設計書、テーブル設計書、ETL設計書等のドキュメントレビュー、Backlogを用いた課題管理、ベンダーとの折衝、定例MTGへの参加が含まれます。担当工程:設計、開発、テスト、運用スキル:必須:-AWSに関する知識(EventBridge、StepFunctions、Lambda、Glueのいずれかを用いた開発経験)-SQL開発経験(複数テーブルJOINを含む)-StoredProcedureの設計/開発経験-Pythonの開発経験(PySparkでのデータパイプライン構築経験歓迎)-Gitを用いたチーム開発経験-情報系システムの運用経験またはシステム運用全般の経験-ジョブフロー設計書のレビュー経験尚可:-AWSの基本サービス知識(S3、EC2、SG、ELBなど)-Snowflakeを利用した開発経験-TableauServerの構築/運用経験-Tableauダッシュボードの開発経験勤務地:東京都業種:情報・通信・メディア |
業務内容:・パッケージ製品である小中学生向け学習支援サービスのデータ分析基盤の保守開発・Azureのデータ分析基盤の構築運用・クラウド(ETL/ELT)の作業・PySparkを用いた大規模データ処理担当工程:保守開発スキル:・Azureのデータ分析基盤の構築運用経験・クラウド(ETL/ELT)の経験・PySparkを用いた大規模データ処理経験その他:・フルリモート勤務・7月から長期案件・募集人数は2名・web面談2回 |
業務内容:大手電機メーカーの社内システムにおいて、AWSGlueを使って需要予測システムから出力したデータを抽出・変換し、DWH(Redshift)からデータマート(Redshift)に登録する機能の設計・開発を行う。既存のPythonShellによるETLがあるが性能要件を満たさないため、VisualETLおよびPySparkで作り直しを行う。担当工程:-AWSGlueでVisualETLおよびPySparkを使ったETLの設計・開発-需要予測システムからのデータ抽出・変換-DWH(Redshift)からデータマート(Redshift)へのデータ登録スキル:必須:-AWSGlueでVisualETLの経験-PySparkの経験-RDBMSの経験尚可:-Python-SQL-AmazonRedshift-AmazonS3-PowerBI勤務地:東京都稼働形態:フルリモート業種:電機・電子・精密機器期間:2023年7月1日開始(調整可能)短期(2ヶ月程度) |
業務内容:AzureDatabricks/Fabricを中心としたデータ分析基盤の設計/構築/実装をリード。SQL、ETL、PySpark、Databricksを活用し、Lakehouseアーキテクチャに沿った分析ソリューションを開発。要件定義からデリバリー、技術リード、ドキュメント化までを担当。担当工程:要件定義、設計、構築、実装、デリバリー、技術リード、ドキュメント化スキル:必須:-日本語/英語バイリンガル-テクニカルリードの経験-AzureDatabricksもしくはPySparkを用いた開発経験-SQLによるクエリ開発経験-Azureサービスとの連携経験(AzureDataLake、AzureSynapseなど)尚可:-CI/CDやGitなどのDevOps経験-PowerBI、MicrosoftFabric経験その他:-稼働場所:フルリモート-地方勤務可-外国籍可(日本語JLPTN1-N2レベル)-面談回数:2回(予定)業種業界:情報・通信・メディア |
業務内容:キャリア向けFraudManagementSystem(FMS)のリプレース案件。現状のパッケージ製品から内製化を目指す。FMSは回線契約者の不正利用を検知するシステム。主な業務:-バッチ系におけるETLアーキテクチャの検討-数億件レベルの大量データ処理アーキテクチャの検討-コンテナAPIの開発-SPA(Single-pageapplication)のコンテナ構築担当工程:設計、開発スキル:必須:-PySpark/ApacheKafka/ApacheFlinkのいずれかの使用経験歓迎:-バッチ系におけるETLアーキテクチャの検討経験-数億件レベルの大量データ処理アーキテクチャの検討経験-コンテナAPIの開発経験(k8s)-SPA(Single-pageapplication)のコンテナ構築に関する知見その他:-協調性とコミュニケーション能力勤務地:東京都業界:情報・通信・メディア |
業務内容:AWS基盤上での次期情報系基盤の開発支援業務。主な業務内容は以下の通り。-各種データパイプラインの設計・開発-インタフェースレイヤの構築(外部システムとのデータ連携)-物理レイヤにおけるデータ登録・加工・データマート構築-インタフェース~物理レイヤの一気通貫ジョブの作成-テスト計画および実施-ジョブ設計書、テーブル設計書、ETL設計書等のドキュメントレビュー-Backlogを用いた課題管理-ベンダーとの折衝、定例MTGへの参加担当工程:設計、開発、テスト、レビュースキル:必須:-AWSの製品(EventBridge、StepFunctions、Lambda、Glue)に関する知識と開発経験-SQL開発経験(複数テーブルJOINを含む)-StoredProcedureの設計/開発経験-Python開発経験(PySparkでのデータパイプライン構築経験歓迎)-Gitを用いたチーム開発経験-情報系システムの運用経験またはシステム運用全般の経験-ジョブフロー設計書のレビュー経験尚可:-AWSの基本サービス知識(S3、EC2、SG、ELB等)-Snowflakeを利用した開発経験-TableauServerの構築/運用経験-Tableauダッシュボードの開発経験案件情報:-開始時期:2025年7月から(6月途中からも可)-場所:東京都 |
業務内容:AWS基盤上での次期情報系基盤の開発支援。各種データパイプラインの設計・開発、インタフェースレイヤの構築、物理レイヤにおけるデータ登録・加工・データマート構築、インタフェース~物理レイヤの一気通貫ジョブの作成、テスト計画および実施、各種設計書のドキュメントレビュー、Backlogを用いた課題管理、ベンダーとの折衝、定例MTGへの参加。担当工程:要件定義、設計、開発、テスト、運用スキル:必須:-AWS(EventBridge、StepFunctions、Lambda、Glueのいずれかを用いた開発経験)-SQL開発経験(複数テーブルJOINを含む)-ストアドプロシージャの設計/開発経験-Python開発経験(PySparkでのデータパイプライン構築経験歓迎)-Gitを用いたチーム開発経験-情報系システムの運用経験またはシステム運用全般の経験-ジョブフロー設計書のレビュー経験尚可:-AWSの基本サービス知識(S3、EC2、SG、ELB等)-Snowflakeを利用した開発経験-TableauServerの構築/運用経験-Tableauダッシュボードの開発経験業種業界:情報・通信・メディア勤務地:東京都 |
業務内容:B2CのWebアプリケーションシステム開発、サービス維持対応。Webシステムの設計・開発、本番システム保守。基本設計~リリース、リリース後の保守(問合せ対応、障害対応)まで。担当工程:基本設計~リリース、リリース後の保守スキル:-PHP、JavaScript、HTML、CSS、SQL-基本設計以上の上流工程経験(3年以上)-本番リリース検証、本番システム保守開発経験-DBパフォーマンスを意識したSQL開発-DBパフォーマンスチューニング経験業務内容:生保システムのマイグレーションスキル:-AzureApacheSparkでの設計経験-Azureを使用した設計経験-生保システム開発経験-代理店成績管理業務業務内容:生保システム開発(PMO)。チームと関係者との調整業務。スキル:-PMOの経験-進捗管理の経験-顧客折衝およびベンダーコントロールの経験-能動的なコミュニケーション能力-開発案件でのPMO経験-金融案件の参画経験案件の地域:東京都業種業界:金融・保険業 |
業務内容:データウェアハウス移行プロジェクトにおいて、DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業を行います。具体的には、ADF移行方針決定、検証、連携テストを実施します。担当工程:移行方針決定、検証、連携テストスキル:必須:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎:・DataIntegrationHubの知識と経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験勤務地:東京都(テレワークメイン)業種業界:情報・通信・メディア |
業務内容:飲料メーカー向け需要予測サービスの開発業務支援。AzureDatabricksを使用した、Python,SQL言語による開発業務。需要予測サービスの追加機能開発と既存機能の改善を行う。担当工程:分析、設計(基本設計,詳細設計)、プログラミング、単体テスト、結合テスト、ドキュメント作成スキル:必須:・Azure上での商用サービスの開発経験・SQLを用いたデータ抽出・加工経験が3年以上・Python(pandas、matplotlib)を使用したチーム開発の実務経験が3年以上尚可:・AzureDataBricksなどを使ったデータのETL処理や機械学習モデルの開発経験・Pysparkツールを使ってデータ操作ができること・データに基づいた客観的な判断力や問題解決能力勤務地:東京都業種:食品・飲料 |
業務内容:AWS基盤上での次期情報系基盤の開発支援業務。主な業務は以下の通り。-データパイプラインの設計・開発-インタフェースレイヤの構築(外部システムとのデータ連携)-物理レイヤにおけるデータ登録・加工・データマート構築-インタフェース~物理レイヤの一気通貫ジョブの作成-テスト計画および実施-各種設計書のドキュメントレビュー-Backlogを用いた課題管理-ベンダーとの折衝、定例MTGへの参加担当工程:設計、開発、テスト、運用スキル:必須:-AWS製品(EventBridge、StepFunctions、Lambda、Glue)に関する知識と開発経験-SQL開発経験(複数テーブルJOINを含む)-StoredProcedureの設計/開発経験-Pythonの開発経験(PySparkでのデータパイプライン構築経験歓迎)-Gitを用いたチーム開発経験-情報系システムの運用経験またはシステム運用全般の経験-ジョブフロー設計書のレビュー経験尚可:-AWSの基本サービス知識(S3、EC2、SG、ELB等)-Snowflakeを利用した開発経験-TableauServerの構築/運用経験-Tableauダッシュボードの開発経験業種業界:情報・通信・メディア勤務地:東京都 |
業務内容:データウェアハウス移行支援作業。DataIntegrationHubからAzureDataFactoryへの移行作業が主な業務。ADF移行方針決定、検証、連携テストを行う。担当工程:設計、検証、テストスキル:必須:-AzureDataFactoryの設計経験-SQL(ストアドプロシージャ等)の設計経験-コミュニケーションスキル尚可:-DataIntegrationHubの知識と経験-ApacheSparkやDatabricksの知識と経験-SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験案件情報:-業界:情報・通信・メディア-勤務地:東京都-稼働場所:テレワーク(入場から2週間程度は大手町近辺)-期間:2025年6月から7月を予定-Web面談2回(別途事前面談1回の場合あり) |
業務内容:大手SIerのシステムEOSL対応プロジェクトにて、以下の業務を担当。-ApacheSparkからDatabricksへのマイグレーション-Databricksを利用した開発標準の策定-プロジェクトリード担当工程:-マイグレーション-開発標準策定-プロジェクトマネジメントスキル:必須:-Databricksを用いたマイグレーションの経験-テックリードの経験尚可:-Spark処理のマイグレーションの経験その他条件:-勤務地:東京都(原則リモート)-業界:情報・通信・メディア-稼働時間:9:00~18:00-募集人数:1名 |
##案件1業務内容:B2CのWebアプリケーションシステムの設計・開発、サービス維持対応。基本設計~リリース、リリース後の保守(問合せ対応、障害対応)まで。担当工程:基本設計~リリース、保守スキル:・PHP、JavaScript、HTML、CSS、SQL・Webシステムの設計・開発経験・本番システム保守経験勤務地:東京都##案件2業務内容:生保システムのマイグレーション担当工程:設計スキル:・AzureApacheSparkでの設計経験・Azureを使用した設計経験・生保システム開発経験(尚可)勤務地:東京都##案件3業務内容:証券システムのEUC構築(要件定義、設計、開発、テスト、リリース、運用保守)スキル:・AccessVBAによるEUC構築経験・コミュニケーション能力・証券システムの業務知識(尚可)勤務地:東京都##案件4業務内容:SAP/S4HANAの維持保守、エンハンス業務・COチームの上流牽引・ユーザ問合せ対応・マスタ登録等の特殊作業・小規模改修の見積り、要件定義、設計、推進・開発ベンダのコントロールスキル:・COの知見およびFI・SD・MMとの連携知識・維持管理経験・コミュニケーション能力・積極的な業務遂行能力勤務地:神奈川県横浜市##案件5業務内容:自治体システムのリプレース・ダッシュボード機能新規構築・メール送信機能・ファイルアップロード機能・帳票出 |
業務内容:AWS基盤上での次期情報系基盤の開発支援・各種データパイプラインの設計・開発・インタフェースレイヤの構築(外部システムとのデータ連携)・物理レイヤにおけるデータ登録・加工・データマート構築・インタフェース~物理レイヤの一気通貫ジョブの作成・テスト計画および実施・ジョブ設計書、テーブル設計書、ETL設計書等のドキュメントレビュー・Backlogを用いた課題管理・ベンダーとの折衝、定例MTGへの参加場所:東京都品川区必要スキル:・AWS製品に関する知識(EventBridge,StepFunctions,Lambda,Glueのいずれかを用いた開発経験)・SQL開発経験(複数テーブルJOINを含む)・StoredProcedureの設計/開発経験・Pythonの開発経験(PySparkでのデータパイプライン構築経験歓迎)・Gitを用いたチーム開発経験・情報系システムの運用経験またはシステム運用全般の経験・ジョブフロー設計書のレビュー経験歓迎スキル:・AWSの基本サービス知識(S3,EC2,SG,ELB等)・Snowflakeを利用した開発経験・TableauServerの構築/運用経験・Tableauダッシュボードの開発経験 |
業務内容:DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業ADF移行方針決定、検証、連携テスト作業場所:東京都大手町テレワーク中心(一部オフィス勤務あり)必須スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験単価:70万円~75万円(スキル見合い)期間:2025年6月~7月面談:Web面談2回 |
業務内容:建築業界向け会計パッケージの開発・保守業務-フロントエンド開発-サーバーサイド開発-データベース設計・構築-インフラ環境の構築・運用開発環境:フロントエンド:JavaScript,Angular,HTMLサーバーサイド:Java8,SpringBoot,Elasticsearch,ApacheSparkデータベース:AWSAurora,DynamoDB,ApacheCassandraインフラ:AWSEC2,S3,EBS,ElastiCache担当工程:基本設計~結合テスト・保守必須スキル:-Java、JavaScriptの開発経験3年以上-フロントエンド、サーバーサイド両方の開発経験歓迎スキル:-詳細設計以降の経験-リモートワークでの就業経験勤務地:東京都(フルリモート)期間:2023年6月~中長期就業時間:10:00~19:00(予定)単価:~62万円 |
業務内容:建築会社向け会計パッケージの開発・保守基本設計~結合テスト・保守必要スキル:・Java,JavaScriptの開発経験3年以上・フロントエンド:Javascript,Angular,HTML・サーバーサイド:Java8,SpringBoot,Elasticsearch,ApacheSpark・データベース:AWSAurora,AWSDynamoDB,ApacheCassandra・インフラ:AWSEC2,S3,EBS,ElastiCache稼働条件:・フルリモート・就業時間:10:00~19:00・場所:東京都単価:~70万円開発環境:・フロントエンド:Javascript,Angular,HTML・バックエンド:Java8,SpringBoot・データベース:AWSAurora,DynamoDB,Cassandra・インフラ:AWS各種サービス |
業務内容:DWH移行支援作業を実施。DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業。-ADF移行方針決定、検証、連携テスト-AzureDataFactoryの設計-SQL(ストアドプロシージャ等)の設計勤務地:東京都千代田区※テレワークメイン(月数回程度の出社有)必要スキル:-AzureDataFactoryの設計経験-SQL(ストアドプロシージャ等)の設計経験-コミュニケーションスキル歓迎スキル:-DataIntegrationHubの知識と経験-ApacheSparkやDatabricksの知識と経験-SQLServerまたはAzureSynapseDedicatedPoolの知識と経験面談:2回(Web面談)単価:70万円~75万円(スキル見合い) |
業務内容:・DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業・ADF移行方針決定、検証、連携テスト場所:東京都(テレワークメイン、一部大手町での作業あり)必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・MQの知見・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験期間:2025年6月~ |
業務内容:DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業DWH移行支援作業ADF移行方針決定、検証、連携テスト勤務地:東京都台東区※テレワークメイン、一部客先作業あり必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験単価:70万円~75万円(スキル考慮)期間:2025年6月~7月 |
業務内容:-DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業-ADF移行方針決定、検証、連携テスト作業場所:東京都※テレワークメイン、一部作業あり必要スキル:-AzureDataFactoryの設計経験-SQL(ストアドプロシージャ等)の設計経験-コミュニケーションスキル歓迎スキル:-DataIntegrationHubの知識と経験-MQの知見-ApacheSparkやDatabricksの知識と経験-SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験 |
業務内容:DWH移行支援作業として以下を担当・DIH(DataIntegrationHub)からADF(AzureDataFactory)への移行作業・ADF移行方針決定、検証、連携テスト勤務地:東京都千代田区※テレワーク中心(入場から2週間程度は客先常駐)必要スキル:・AzureDataFactoryの設計経験・SQL(ストアドプロシージャ等)の設計経験・コミュニケーションスキル歓迎スキル:・DataIntegrationHubの知識と経験・MQの知見・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験 |