新着案件をメール受信

いつでもキャンセルできます

検索キーワード:Hadoop

検索結果:47件
業務内容:-通信インフラシステムの構成検討、フィジビリティ評価、MVP開発、アジャイル開発全工程-コールセンターシステムの保守、機能改修、バグ修正、性能改善(GCP環境)-WEBサーバーの運用保守、移行検討、Ansibleによる設計構築、Linux保守-ETL業務の機能改修、引継ぎ、データクレンジング、CDP活用、Hadoop等大規模分散処理-CSV作成機能を持つウェブアプリの設計・実装・テスト(C#ASP.NETCore、MudBlazor、PostgreSQL)-証券投資レポートのPDF解析バッチの設計・実装・総合テスト、ジョブ登録担当工程:要件定義、基本設計、詳細設計、実装、テスト、デプロイ、運用保守、改善提案スキル:必須:Python開発経験、C#(ASP.NETCore)開発経験、SQL経験、Ansible設計構築経験、Linux保守経験、RESTAPI開発経験(FastAPI/Flask/OpenAPI)尚可:アジャイル開発経験、AWS実務経験、GCP開発経験、Hadoop・CDP(TreasureData)利用経験、Digdag・Embulk経験、Git利用経験、JavaScript・Java・VB/.NET・JP1経験稼働場所:神奈川県(リモート中心、必要時武蔵小杉へ出社)/東京都(リモート中心、必要時初台・紀尾井町・飯田橋へ出社)/在宅
業務内容:キャリア向けデータ基盤の次期SQLServer移行開発。詳細設計、開発、データ一致確認試験、切替作業、過去データ移行を実施。担当工程:詳細設計、実装、テスト、リリース作業、データ移行スキル:必須:SQLServerを用いたSQL開発経験、ジョブスケジューラの取り扱い経験、PJメンバーへの技術支援が可能なコミュニケーション能力尚可:上流工程からリリースまでの一貫開発経験、Hadoop・DataBricks経験、Python・Linux環境での開発経験稼働場所:東京都(現場出社メイン)その他:業種:情報・通信・メディア、開始時期:2025年9月、募集人数:1名、環境:OSLinux、言語SQL、DBSQLServer、その他roadstar
業務内容:-AzureDatabricksを用いたデータクレンジング-Tableauでの経営ダッシュボード設計・実装-PySparkによる分散データ処理-設計、開発、試験の各フェーズ実施担当工程:設計、開発、テストスキル:必須:データ分散処理の設計・実装経験、データベースアーキテクチャ経験、パフォーマンスチューニング経験、データ分析の設計・実装経験尚可:PySpark実務経験、Sparkパフォーマンス対策経験、Hadoop利用経験、DWH開発経験、AzureDatabricks実務経験稼働場所:東京都(リモート中心、顧客・社内ミーティング時に出社あり)その他:業種:情報・通信・メディア、プロジェクト期間:相談、募集人数:1〜2名
業務内容:詳細設計、開発、データ一致確認試験、切替作業、過去データ移行担当工程:詳細設計、プログラミング、テスト、切替、データ移行スキル:必須:SQL開発経験、コミュニケーション能力、ジョブスケジューラ経験尚可:SQLServer、Hadoop、DataBricks、Python、Linux開発経験稼働場所:東京都(現場出社メイン)その他:業種:情報・通信・メディア開始時期:2025年10月開始予定、2025年12月終了予定プロジェクト規模:4名体制
業務内容:-ETL業務の機能改修・引継ぎ-データクリーン・サービスの運用支援-Hadoop/Trino/TreasureDataCDPを活用した大規模データ処理基盤の開発担当工程:要件定義・設計・実装・テスト・運用支援スキル:必須:Python実務経験(他言語経験可)SQL経験(Trino、Hadoopは尚可)コミュニケーション力大規模データ分散処理技術(Hadoop等)実務経験またはTreasureDataCDP利用経験Trino経験(CDP経験者は必須)尚可:Digdag、Embulkの利用経験データエンジニアまたはアナリティクスエンジニアとしての業務経験Hadoop等の分散処理技術の実務経験(Python経験者向けは尚可、CDP経験者向けは尚可)稼働場所:東京都(基本出社)その他:業種:情報・通信・メディア開始時期:2025年10月開始予定終了時期:2025年12月終了予定(長期前提)募集人数:Python経験者2名、CDP経験者1名外国籍可能(Python経験者)/日本籍限定(CDP経験者)
業務内容:-法規案件向け次世代Bigdata分析基盤の開発-システム開発およびテスト作業-プロジェクトリーダー指示のもとプロジェクト参画担当工程:-実装(プログラミング)-テスト(単体テスト・結合テスト)スキル:必須:Pythonでの実務開発経験(1年以上)、SQLを用いたデータベース操作・クエリ作成経験、Linuxの基本操作スキル尚可:Bigdata関連技術(例:Hadoop、Spark)に関する知識、CI/CDツールの使用経験稼働場所:基本テレワーク(関西・中国エリア)。業務上必要な場合はオフィス出社あり。その他:業種:公共・社会インフラ/官公庁・自治体開始時期:即日または相談に応じて決定勤務時間:9:00〜17:45(休憩45分)週休2日制、カレンダーに準拠した休日取得可
業務内容:Pythonを用いたアジャイル開発プロジェクトにおける機能実装・改修作業担当工程:ソフトウェア開発(要件実装・コードレビュー等)スキル:必須:Pythonによる開発経験尚可:アジャイル開発経験、ApacheAirflow、Gitea、Spark、Hadoop、Hive、Linux稼働場所:在宅勤務を基本とし、月2回程度東京都内のオフィスへ出社その他:業種:情報・通信・メディア
業務内容:SQLServer移行に伴う詳細設計、開発、データ一致確認試験、切替作業、過去データ移行担当工程:詳細設計、プログラミング、テスト、リリース作業全般スキル:必須:SQL開発経験、ジョブスケジューラ操作経験、プロジェクトマネジメント経験、上流~リリースまでの一貫実績、1人称でのSQL開発対応可能尚可:SQLServer、Hadoop、DataBricks、Python、Linuxの開発経験、顧客折衝経験稼働場所:東京都(出社メイン)その他:業種:情報・通信・メディア、開始時期:相談
業務内容:次期SQLServerへの移行開発全般を担当します。詳細設計、プログラム開発、データ一致確認試験、切替作業、過去データの移行作業を実施します。担当工程:リーダーは要件定義からリリースまでの上流工程を主導し、メンバーは開発・テスト・移行工程を担当します。スキル:必須:SQL開発経験、ジョブスケジューラの運用経験。リーダーはプロジェクトマネジメント経験、メンバー取りまとめ経験、上流~リリースまでの一貫経験。メンバーはSQL開発が可能でジョブスケジューラ経験が必要です。尚可:SQLServer、Hadoop、Databricks、Python、Linuxでの開発経験、顧客折衝経験。稼働場所:東京都(出社メイン)。天王洲アイル周辺での勤務となります。その他:業種は情報・通信・メディア。リーダー1名、開発メンバー5名を募集しています。2025年9月から採用開始予定です。
業務内容:次期SQLServerへのシステム移行プロジェクトにおいて、詳細設計、開発、データ一致確認試験、切替作業、過去データ移行を実施し、プロジェクトメンバーの取りまとめおよび顧客折衝を行う。担当工程:詳細設計、実装、テスト、リリース作業、データ移行スキル:必須:SQL開発経験、ジョブスケジューラ使用経験、プロジェクトマネジメント経験、顧客折衝経験、上流からリリースまでの一貫経験尚可:SQLServer、Hadoop、DataBricks、Python、Linux開発経験稼働場所:東京都天王洲アイル(出社メイン)その他:情報・通信・メディア業界のシステム移行案件。経験豊富な開発リーダーを対象とする。
業務内容:キャリア向けデータ基盤の次期SQLServerへの移行開発を担当します。詳細設計、実装、データ一致確認試験、切替作業、過去データの移行を実施します。担当工程:詳細設計、プログラミング、テスト(データ一致確認)、本番切替、過去データ移行スキル:必須:SQL開発経験、ジョブスケジューラの使用経験、コミュニケーション能力尚可:SQLServer、Hadoop、DataBricks、Python、Linuxでの開発経験稼働場所:東京都内の現場(天王洲スフィアタワー)に出社中心で作業します。リモートは原則不可。その他:業種:情報・通信・メディア(データ基盤構築)/プロジェクト開始時期は相談に応じます。作業に必要なPCはクライアント側で用意します。
業務内容:SQL-Serverを使用したデータベースの移行業務および移行後のDBチューニング担当工程:要件定義、設計、データ移行作業、チューニング、テストスキル:必須:SQLServerの実務経験、データベースチューニングの実績尚可:Hadoopの運用経験稼働場所:東京都内の現場常駐(リモート不可)その他:業種:情報・通信・メディアプロジェクト期間:2025年9月~12月(延長の可能性あり)体制:最大6名までのチーム編成が可能
業務内容:既存システムを次期SQLServerへ移行するプロジェクトの開発リーダーとして、詳細設計・実装、データ一致確認試験、過去データ移行、本番切替を統括し、メンバー管理および顧客折衝を行う。担当工程:詳細設計、開発、単体・結合試験、データ移行、本番切替、進捗管理スキル:必須:・SQLによる開発経験・ジョブスケジューラの運用経験・プロジェクトリーダー経験(進行管理、メンバー管理)・顧客折衝を含む上流工程からリリースまでの一貫した経験尚可:・SQLServerの深い知見・Hadoop/DataBricks環境での開発・運用経験・Pythonでの開発経験・Linuxでの開発経験稼働場所:東京都(出社メイン)その他:開始時期は9月、終了は12月末を予定外国籍不可、想定年齢層は20代〜40代
業務内容:・SQLServerデータベースの現行環境から新環境への移行作業・性能劣化を防ぐためのDBチューニング・移行計画の策定および実施支援・関連ドキュメントの作成とレビュー担当工程:要件定義、基本設計、移行計画策定、実装、テスト、運用移行スキル:必須:・SQLServerの構築、運用、移行経験・DBチューニングの実務経験尚可:・Hadoop環境の設計または運用経験稼働場所:東京都(現場常駐)その他:開始時期:9月予定期間:9月〜12月(延長の可能性あり)最大6名まで同時参画が可能
金額:620,000~670,000円/月
業務内容:現行SQLServer環境を次期環境へ移行するプロジェクトにおいて、移行開発リーダーとして詳細設計・開発、データ一致確認試験、切替作業、過去データ移行を統括し、プロジェクト管理やメンバーリード、顧客折衝を含めリリースまで一貫して対応します。担当工程:要件確認、詳細設計、開発、テスト、データ移行、リリース計画・実行、プロジェクト管理スキル:必須:SQLでの開発経験/ジョブスケジューラ運用経験/プロジェクト遂行・チーム取りまとめ経験/顧客折衝を含む上流~リリースまでの経験尚可:SQLServerに関する知識/Hadoop利用経験/AzureDatabricks経験/Pythonでの開発経験/Linux環境での開発経験稼働場所:東京都(出社メイン)その他:参画期間は9月~12月末を予定/外国籍不可/年齢20代~40代を想定
業務内容:・オンプレミスで稼働中の既存システムを次期SQLServerへ移行するプロジェクトをリード・移行に伴う詳細設計、開発、ジョブスケジューラ設定/運用・データ一致確認試験の計画および実施・本番切替作業および過去データ移行・メンバー取りまとめと進捗管理、顧客折衝担当工程:要件確認、詳細設計、開発、テスト計画・実施、移行、リリーススキル:必須:・SQLを用いた開発経験・ジョブスケジューラの運用経験・プロジェクト遂行およびチームリーダー経験・顧客折衝を含む上流~リリースまでの経験尚可:・SQLServer環境での開発経験・HadoopもしくはDataBricksの利用経験・Pythonによる開発経験・Linux環境での開発経験稼働場所:東京都(出社メイン)その他:・稼働開始時期:9月~12月末・業種:情報・通信・メディア・外国籍不可・年齢20代~40代を希望
業務内容:キャリア向けデータ基盤を次期SQLServer環境へ移行するプロジェクトにおいて、詳細設計、開発、ジョブスケジューラ設定、PythonやDataBricksを用いたデータ処理、データ一致確認試験、切替、過去データ移行、Linux上での運用作業を担当します。担当工程:詳細設計、開発、テスト(データ一致確認)、移行、切替、運用スキル:必須:SQLでの開発経験、ジョブスケジューラの知識、コミュニケーション能力尚可:SQLServerまたはHadoopの経験、Python・DataBricks・Linuxでの開発経験稼働場所:東京都(常駐)その他:情報・通信・メディア業/開始時期9月予定~12月(延長の可能性あり)/勤務時間9:00〜18:00/現場OS:Linux、言語:SQL
業務内容:Apache/Tomcatを利用した新規インフラ環境の設計・構築、機能拡張に伴う環境設定およびLinuxサーバの設計・構築を担当します。担当工程:要件確認、基本設計、詳細設計、環境構築、テスト、ドキュメント作成、運用引継ぎスキル:必須:・Apache、Tomcatを用いた実務経験・インフラ新規構築プロジェクト参画経験・Linuxサーバ設計・構築経験2年以上尚可:・Elasticsearchの構築または運用経験・Hadoopの導入または運用経験・PostgreSQLの利用経験稼働場所:宮城県(基本リモート、3か月に1回程度および構築フェーズ以降は月1回の出張あり)その他:業種:公共・社会インフラ(電力・ガス・水道)開始時期:9月期間:長期想定出張:1回につき1~4泊想定年齢目安:50代前半まで外国籍不可
業務内容:営業支援プラットフォームの新規開発および既存機能拡張におけるバックエンド開発を担当します。要件定義、設計、実装、テスト、保守運用までをアジャイル体制で推進し、ステークホルダーとの要件調整、コードレビュー、品質管理、パフォーマンス最適化、インフラ設計およびパフォーマンスチューニングを実施します。担当工程:要件定義/基本設計/詳細設計/実装/単体・結合テスト/リリース/保守運用スキル:必須:・Pythonを用いたWebアプリケーション開発経験(3年以上)・SaaSまたはクラウド環境での開発経験・アジャイルまたはスクラム開発経験・AWS環境での開発経験尚可:・JavaまたはScalaでの開発経験・Hadoop、Hive、HBaseなどBigData基盤の利用経験・Vue.js、Symfonyなどフレームワークの利用経験・自立自走で課題解決できるマインドセット稼働場所:東京都(週3日出社・週2日リモート)その他:業種:情報・通信・メディア開始時期:8月予定勤務時間:フレックスあり
業務内容:GenerativeAIサービスで利用する大規模データ基盤の設計・構築・運用を担当。Python/SQLによるデータ処理パイプライン開発、RDB・NoSQL・DWHの設計運用、GCPまたはAWS上でのインフラ構築(Docker・Kubernetes利用)、API開発や外部システム連携、運用自動化・性能改善・監視設計を行う。担当工程:要件定義、基本設計、詳細設計、開発、テスト、リリース、運用保守スキル:必須:・Python/SQLでのデータ処理実務・RDB/NoSQL/DWHの設計・運用経験・GCPまたはAWSなどクラウド活用経験・Docker/Kubernetesによるインフラ構築経験・API開発またはデータ連携設計・実装経験・ビジネスレベルの日本語コミュニケーション尚可:・LLM/GenerativeAIの知見・AI学習用データの管理・整備経験・Spark/Hadoop等ビッグデータ技術の知見・データパイプライン開発3年以上の経験・多国籍/英語環境での業務経験稼働場所:東京都(週3出社+週2リモート)その他:開始時期:8月開始予定、長期継続(1〜3か月ごと更新)フレックスタイム制(コアタイム応相談)開発環境:Python、TypeScript(React/Next.js)、GCP、Docker、Kubernetes、GitHub、Slack
業務内容:生命保険会社の設計書申し込みシステムの開発支援。既存のOracleデータベースからAzureDataLakeへのデータ移行およびETL開発。データはJSON形式で保存し、APIから取得。JSONのデータモデリングやETLの開発設計が主な担当範囲。担当工程:-ETL開発-バッチ開発-パフォーマンスチューニング-可用性、拡張性の検討設計-データパイプライン構築-データモデリングスキル:必須:-Oracle-AzureDataLake-AzureCosmosDB-データエンジニアリング-RDBからNoSQLへのデータ移行経験尚可:-ETLツール-MongoDB-Hadoop-Snowflake-データモデリング勤務地:東京都(基本リモート)業界:金融・保険業(生命保険)その他:-外国籍可-募集人数1名
業務内容:大手求人検索サービスにおけるデータエンジニアの業務担当工程:データエンジニアリング全般スキル:データエンジニアリングスキル大規模データ処理データパイプライン構築データウェアハウス設計ETL処理クラウドプラットフォーム(AWS、GCP、Azureなど)ビッグデータ技術(Hadoop、Spark、Hiveなど)SQLプログラミング言語(Python、Java、Scalaなど)データ可視化ツール勤務地:東京都業界:情報・通信・メディア
金額:880,000円/月
業務内容:車両データを可視化する既存システムに新規機能を追加する開発案件。主な作業は以下の通り。・特定のデータを削除する機能追加・車両データを可視化する新規グラフ追加作業範囲は設計、製造、単体テスト、結合テスト、システムテスト、リリース作業。・車両データを可視化する既存システムへの新規機能追加開発・バックエンド(バッチ処理)の改修担当工程:設計、製造、単体テスト、結合テスト、システムテスト、リリース作業スキル:・Java開発5年以上・AWS開発2年以上・設計~開発~各種テストを自律して完遂できる能力尚可スキル:・ビックデータ開発経験(分散処理、Hadoop、Spark、AWS、EMRなど)・顧客とのコミュニケーション、報告などの経験・Iceberg、AWSS3Tablesの利用経験業種業界:自動車・輸送機器勤務地:愛知県稼働場所:リモート可、必要に応じ出社
金額:650,000~700,000円/月
業務内容:GenerativeAI向けデータ基盤の構築・運用支援DB設計・運用(RDB/NoSQL/DWHなど)クラウド(GCP/AWS)でのインフラ構築(Docker/Kubernetes)API開発、データ連携設計・実装データパイプライン開発必要スキル:Python/SQLによるデータ処理経験DB設計・運用経験クラウド利用経験Docker/Kubernetesを用いたインフラ構築経験API開発またはデータ連携設計・実装経験ビジネスレベルの日本語力尚可スキル:LLM/GenerativeAIの知見または活用経験AI学習用データの管理・整備経験データパイプライン開発経験Spark、Hadoopなどのビッグデータ技術の知見多国籍・英語環境での業務経験面談:オンライン開発環境:Python、TypeScript(React/Next.js)、GCP、Docker、Kubernetes、GitHub、Slack、Linear、GoogleWorkspace勤務地:東京都業種:情報・通信・メディア
業務内容:エンドユーザー提供サービスの諸状況を分析・可視化する業務。複数案件を並行して進行し、ダッシュボードとしてアウトプットを提供。エンドユーザー(主にデジタルマーケティング営業活動をしている部門)と会話しリクエストを引き出しながら、アウトプットとしてダッシュボードを提供。主にダッシュボード作成用のデータ作成を担当。その他スポットのデータ抽出対応などを実施。担当工程:-エンドユーザー提供サービスの諸状況の分析・可視化-複数案件の並行進行とダッシュボード提供-エンドユーザーとのコミュニケーションとリクエスト把握-ダッシュボード作成用のデータ作成-スポットのデータ抽出対応スキル:必須:-SQLでの開発経験3年以上-BIレポートやデータ提供の要件を聞き出す業務経験-データの意味を理解し、提案できる能力歓迎:-Snowflake開発経験-ダッシュボード利用者目線での見せ方の工夫ができる能力その他情報:-勤務地:東京都-勤務形態:ほぼテレワーク、月1回出勤-勤務時間:9:00-18:00-開発環境:Snowflake、HADOOP-チーム構成:5名チーム