新着案件をメール受信
いつでもキャンセルできます
検索キーワード:Spark
検索結果:205件
| 業務内容:金融機関向けAMLパッケージのカスタマイズ開発海外ベンダー製品の日本市場向けカスタマイズ開発Java/Scala/Sparkを用いたシステム開発業務参画前に2か月程の英語オンライン研修あり場所:東京都必要スキル:・Java開発経験5年以上・ビジネスレベルの英語/日本語・ScalaまたはSpark開発経験、知識があれば尚可期間:2025年8月~予定特記事項:・金融機関の本番データを取り扱う案件・Web面談2回想定・参画前に2か月程データエンジニア研修(英語)を受講 |
| 業務内容:AWSクラウド環境での予防接種関連情報を管理・配信するシステムの開発・pythonを用いた開発・AWS上で動作するアプリケーションの開発・AWSサービス(S3、EventBridge、StepFunctions、Glue、CloudFormation)を利用した実装勤務地:東京都(リモートワークメイン)担当工程:上流工程(アーキテクト)必要スキル:・pythonを用いた開発経験・AWS上で動作するアプリケーションの開発経験・AWSの一般的なサービスに関する基礎知識・コミュニケーション力歓迎スキル:・ApachSparkを用いた開発経験や知見期間:2025年5月~2026年5月頃予定その他:・同案件の周辺システムの開発が複数あり、他案件にスライドし継続的に支援可能 |
| 業務内容:自動車・モビリティ関連のアプリケーション開発業務・Java(21)+SpringBootでのAPI開発・AmazonWorkspacesの自動構築、NW設定変更・Pythonでの開発・AWSでの開発・構築作業開発環境:・Java(SpringBoot)・Python・AWS・統合開発環境(Intellij,vsCode)・Git必須スキル:・Java(SpringBoot)での開発経験・Pythonでの開発経験・AWSでの開発・構築経験歓迎スキル:・Scala開発経験・Docker・Unix基本コマンド・Terraform・Kubernetes・ApacheSpark求める人物像:・新しい技術への取り組みに前向きな方・報連相ができる方・英語での技術調査に抵抗のない方勤務地:東京都※リモートワーク中心(プロジェクト開始時・リリース前は出社の可能性あり) |
| 業務内容:・大量のデータを扱うデータ基盤の設計・構築・運用・データパイプラインの構築・データ分析基盤の構築必要スキル:・データエンジニアとしての実務経験3年以上・Spark、Hadoop等のビッグデータ処理の知識・経験・クラウドサービス(AWS,GCP等)の利用経験尚可スキル:・機械学習、深層学習の知識環境:・基本リモート勤務・単価:95万円以上 |
| 業務内容:AWS上に構築されたDataLakeの運用保守開発。Datalake内のシステム及びデータの整備、要件確認の上での保守改修、課題整理、要件確認、設計、開発、テストを実施。・Java→Python言語変換・Python→Pythonリファクタリング(構造変換)場所:東京都港区必須スキル:・AWSサービス各種・Python経験(3年程度)、コードを読み解く力・Git、JIRA・Pyspark歓迎スキル:・APIを使用してシステムを構築した経験・databricks・DataBuildToolその他:・稼働開始:2025年4月中旬~・勤務時間:9:00~18:00(休憩1時間)・出社:週1回(金曜日) |
| 業務内容:・求人サイトに蓄積されたデータを分析するためのデータパイプラインの構築・運用・データの前処理や加工・高速でスケーラブルなデータパイプライン設計・クラウドベースのBigDataプラットフォーム設計・構築必要スキル:・PythonまたはScalaを使ったデータ処理の実務経験3年以上・Spark、Hadoop、Kafkaなどのビッグデータ処理ツールの経験・AWS、GCPなどのクラウドサービスの利用経験歓迎スキル:・機械学習やデータマイニングの知識・データウェアハウスやデータレイクの設計・構築経験勤務地:リモートワーク可能 |
| 業務内容:大手金融機関向けDatabricksを用いたデータエンジニアリング領域の開発。ETLパイプラインの量産開発と試験。勤務地:東京都千代田区必要スキル:・データ連携処理(Python、SQL、ジョブ)の開発経験・1人でタスク遂行可能歓迎スキル:・Pytestでのテスト経験・Databricks開発経験・Spark製品の経験・AWS/Azure/GCPサービスの開発経験 |
| 業務内容:物流会社向け会計パッケージの開発・保守担当工程:基本設計~結合テスト・保守開発環境:フロント:Javascript,Angular,HTMLサーバー:Java8,SpringBoot,Elasticsearch,ApacheSparkDB:AWSAurora,AWSDynamoDB,ApacheCassandraインフラ:AWSEC2,S3,EBS,ElastiCache必要スキル:・Java、JavaScript開発経験3年以上・JavaかJavaScriptどちらかの経験でも可・フロント、サーバーの両方に携われる方・詳細設計以降の経験がある方(開発のみ、テストのみは不可)単価:60万円~65万円場所:東京都(フルリモート)期間:2023年4月から面談:1回 |
| 業務内容:AzureDataFactoryのDataFlowを使ったETL処理作業設計からテストまでの工程を担当期間:2025年4月から2025年6月(延長の可能性あり)場所:東京都(基本テレワーク)単価:55万円~60万円必要スキル:・SQL(ストアドプロシージャ等)の設計経験・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験必須要件:・IT業界経験3年以上・コミュニケーション力・勤怠管理ができること勤務時間:9:00~18:00その他:・募集人数:2名・面談:2回程度 |
| 業務内容:会計パッケージの開発および保守業務・フロントエンド:HTML、JavaScript、Angular・サーバーサイド:Java8、SpringBoot、Elasticsearch、AWSEMR、ApacheSpark・データベース:AWSAurora、AWSDynamoDB、ApacheCassandra・インフラ:AWSEC2、S3、EBS、ElastiCache・CI/CD:AWSEKS担当工程:基本設計~結合テスト必要スキル:・Java、Springの経験・AWS経験勤務地:東京都(フルリモート)就業時間:10:00-19:00(応相談)面談:1回(Web面談) |
| 業務内容:会計パッケージの開発・保守業務・基本設計・結合テスト・保守勤務地:東京都千代田区(フルリモート)勤務時間:10:00-19:00(応相談)期間:2023年4月〜長期必要スキル:・Java8、SpringBoot・HTML、JavaScript、Angular・Elasticsearch、AWSEMR、ApacheSpark・AWSAurora、AWSDynamoDB、ApacheCassandra・AWSEC2、S3、EBS、ElastiCache・AWSEKS面談:Web面談1回 |
| 業務内容:物流会社向け会計パッケージの開発・保守基本設計〜結合テスト・保守までを担当フロントエンド、サーバーサイド両方の開発に携わる担当工程:基本設計〜結合テスト・保守必要スキル:・Java、JavaScript開発経験3年以上・フロントエンド:Javascript、Angular、HTML・サーバーサイド:Java8、SpringBoot、Elasticsearch、ApacheSpark・データベース:AWSAurora、AWSDynamoDB、ApacheCassandra・インフラ:AWSEC2、S3、EBS、ElastiCache・詳細設計以降の実務経験勤務地:東京都品川区(フルリモート)面談:Web面談1回 |
| 1.人事システムのアプリケーション基盤構築業務内容:人事システムのアプリケーション基盤構築業務作業場所:東京都(基本リモート)必要スキル:・WindowsServer構築経験・アプリケーション基盤の構築経験(WEB3階層)・ジョブ管理ソフトの設計・構築経験・hinemos、hulftの構築経験があれば尚可・OCI環境での構築経験があれば尚可・linux基本操作及びシェルスクリプト作成2.アーキテクト支援業務内容:技術支援部署での製品調査/PoC実施、アーキテクチャ設計、ノウハウのドキュメント化作業場所:基本リモート必要スキル:・アーキテクト経験・エンタープライズ開発の知見・設計思想の理解・マイクロサービス開発/設計経験があれば尚可・パブリッククラウド実装/設計経験があれば尚可・コンテナ・Kubernetes実装/設計経験があれば尚可3.LLMプロンプト開発業務内容:プロンプトエンジニアリング業務、LLMへのプロンプト入力、データ加工必要スキル:・RAGを用いたプロンプトエンジニアリングの業務経験・統計知識があれば尚可4.製造業向け会計システム再構築業務内容:会計システムの再構築作業場所:愛知県刈谷市(基本リモート)必要スキル:・Outsystemsの経験・会計業務(特に損益計算)の知識・基本設計対応可能なSEレベル5.旅客案内情報システム更改業務内容:システム更改業務作業場所:東京 |
| 業務内容:PKGのカスタマイズ対応(Java)と導入を行うプロジェクト。アジャイル開発手法にて進行。勤務地:東京都千代田区(リモート併用)必要スキル:・英語力(会話・読み・書き)・Scalaでの開発経験、または関数型言語の開発経験・Java開発経験歓迎スキル:・ApacheSpark/Flink/Beamなどの分散処理エンジンによるデータパイプライン実装経験・DevOpsの実務経験面談:1回予定 |
| 業務内容:AzureDataFactoryのDataFlowを使ったETL処理作業設計からテストまでの一連の作業を担当勤務地:東京都千代田区※テレワークメイン(初期2週間は常駐)期間:2025年4月~2025年6月(延長可能性あり)必要スキル:・SQL(ストアドプロシージャ等)の設計経験・IT業界経験3年以上歓迎スキル:・ApacheSparkやDatabricksの知識・経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識・経験面談:2回予定 |
| 業務内容:AzureDataFactoryのDataFlowを使ったETL処理作業Azure移行に伴うマートの変更、要望対応SQLマートの部分の対応システムの基本設計〜構築、テスト勤務地:東京都千代田区※テレワーク可(初期2週間は常駐)必要スキル:・SQL(ストアドプロシージャ等)での基本設計経験・SQL(ストアド)の開発経験・顧客折衝対応スキル歓迎スキル:・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験募集人数:2名 |
| 業務内容:AzureDataFactoryのDataFlowを使ったETL処理の設計から実装・テストまでを担当基本リモートワークだが、プロジェクト開始時2週間は東京都内での作業あり担当工程:設計~テスト必須スキル:・SQL(ストアドプロシージャ等)の設計経験・IT業界経験3年以上歓迎スキル:・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験場所:東京都※基本リモートワーク単価:~80万円前後募集人数:2名面談回数:2回 |
| 業務内容:AzureDataFactoryのDataFlowを使ったETL処理の設計からテストまでの作業担当工程:要件定義、設計、開発、テスト勤務地:東京都※テレワーク中心(初期2週間は常駐)必要スキル:・SQLの設計経験(ストアドプロシージャ等)・IT業界経験3年以上歓迎スキル:・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験期間:2025年4月〜2025年6月(延長可能性あり)単価:〜80万円/月面談:2回予定 |
| 業務内容:特典型サービスの改善に向けたデータ分析・データマート開発、改修業務データマート開発・改修、データ調査、加工、集計作業就業場所:東京都渋谷区稼働時期:2025年4月~長期単価:60万~65万円必要スキル:・Python分析経験(Pandas)・SQLを問題無く扱えるスキル・AWS上での業務経験尚可スキル:・Pysparkの使用経験・定常的に運用するデータマートの開発・改修経験・ビッグデータ分析経験・Pythonを用いたデータ分析、データ集計経験・SQLを用いたデータ分析、データ集計経験・データマートの保守・運用経験・GitとJupiterの使用経験・RDBでのデータ加工、集計のスキル勤務体制:・基本リモート勤務・入場後2週間程度出社が必要・業務内容により出社の可能性あり |
| 業務内容:AzureDataFactoryのDataFlowを使ったETL処理作業設計からテストまでの工程を担当勤務地:東京都※基本テレワーク※立ち上げ期間(2週間程度)は東京都内での勤務単価:80万円前後必要スキル:・SQL(ストアドプロシージャ等)の設計経験・IT業界経験3年以上歓迎スキル:・ApacheSparkやDatabricksの知識と経験・SQLServerもしくはAzureSynapseDedicatedPoolの知識と経験募集人数:2名面談回数:2回 |
| 業務内容:金融機関のデータマネジメントシステムのクラウド移行支援・SASからSASViyaへの移行(データマート設計/開発/テスト)・DatabricksApacheSpark、SQL、Pythonを利用した設計、開発、テスト場所:東京都千代田区担当工程:設計、製造、試験必須スキル:・SAS(SASEG、SASViya等)の業務経験・BigQuery、SQLの業務経験・Databricks(ApacheSpark)、SQL、Pythonの業務経験歓迎スキル:・コミュニケーションスキル・AWS(S3)・Azure(BlobStorage)・GoogleCloud(BigQuery)開発環境:AWS、GoogleCloud、Azure、Databricks、BigQuery、SASViya単価:50万円〜60万円 |
| 業務内容:・分析用マート作成業務支援・特典型サービス改善に向けたデータ分析・データマート開発・改修業務・データ調査、加工、集計作業担当工程:・データ調査・データ加工・データ集計・分析用データマート開発・改修必須スキル:・Python分析経験(Pandas)・SQL・AWS上での業務経験尚可スキル:・Pyspark・定常的に運用するデータマートの開発・改修経験・ビッグデータ分析経験・Pythonを用いたデータ分析、データ集計経験・SQLを用いたデータ分析、データ集計経験・データマートの保守・運用経験・Git、Jupiter・RDBでのデータ加工、集計勤務地:東京都渋谷区単価:60万円~65万円その他:・基本リモート(入場後2週間程度は出社)・Web面談1回 |
| 業務内容:高速道路向け渋滞所要時間情報提供システムの開発既設渋滞所要時間予測機能の精度改善対応担当工程:内部設計システム試験スキル:必須・Java尚可・Scala・ApacheSpark場所:関西募集人数:1名 |
| 業務内容:金融系データマネジメントシステムのクラウド環境への移行開発・データマネジメントシステムのクラウド移行・現行システム調査・詳細設計・実装・テスト担当工程:-データマート設計-開発-テスト必要スキル:以下のいずれか1つ以上・SASの業務経験・BigQuery、SQLの業務経験・Databricks、ApacheSpark、SQL、Pythonの業務経験歓迎スキル:・データマート設計/開発/テスト仕様書作成経験・SASViya、SASEGの経験開発環境:AWS、GoogleCloud、Azure、Databricks、BigQuery、SASViya、Looker、braze場所:東京都千代田区 |
| 業務内容:高速道路の渋滞所要時間情報提供システムにおける、既設渋滞所要時間予測機能の精度改善対応のシステム開発担当工程:内部設計からシステム試験までの下流工程必要スキル:・Java必須・Scala・ApacheSpark場所:大阪府大阪市北区中之島期間:2025年04月~2026年3月(翌年度延長の可能性あり)その他:渋滞所要時間予測機能の精度改善を目的としたシステム開発案件 |