新着案件をメール受信
いつでもキャンセルできます
検索キーワード:Hadoop
検索結果:60件
| 業務内容:既存システムを次期SQLServerへ移行するプロジェクトの開発リーダーとして、詳細設計・実装、データ一致確認試験、過去データ移行、本番切替を統括し、メンバー管理および顧客折衝を行う。担当工程:詳細設計、開発、単体・結合試験、データ移行、本番切替、進捗管理スキル:必須:・SQLによる開発経験・ジョブスケジューラの運用経験・プロジェクトリーダー経験(進行管理、メンバー管理)・顧客折衝を含む上流工程からリリースまでの一貫した経験尚可:・SQLServerの深い知見・Hadoop/DataBricks環境での開発・運用経験・Pythonでの開発経験・Linuxでの開発経験稼働場所:東京都(出社メイン)その他:開始時期は9月、終了は12月末を予定外国籍不可、想定年齢層は20代〜40代 |
| 業務内容:・SQLServerデータベースの現行環境から新環境への移行作業・性能劣化を防ぐためのDBチューニング・移行計画の策定および実施支援・関連ドキュメントの作成とレビュー担当工程:要件定義、基本設計、移行計画策定、実装、テスト、運用移行スキル:必須:・SQLServerの構築、運用、移行経験・DBチューニングの実務経験尚可:・Hadoop環境の設計または運用経験稼働場所:東京都(現場常駐)その他:開始時期:9月予定期間:9月〜12月(延長の可能性あり)最大6名まで同時参画が可能 |
| 業務内容:現行SQLServer環境を次期環境へ移行するプロジェクトにおいて、移行開発リーダーとして詳細設計・開発、データ一致確認試験、切替作業、過去データ移行を統括し、プロジェクト管理やメンバーリード、顧客折衝を含めリリースまで一貫して対応します。担当工程:要件確認、詳細設計、開発、テスト、データ移行、リリース計画・実行、プロジェクト管理スキル:必須:SQLでの開発経験/ジョブスケジューラ運用経験/プロジェクト遂行・チーム取りまとめ経験/顧客折衝を含む上流~リリースまでの経験尚可:SQLServerに関する知識/Hadoop利用経験/AzureDatabricks経験/Pythonでの開発経験/Linux環境での開発経験稼働場所:東京都(出社メイン)その他:参画期間は9月~12月末を予定/外国籍不可/年齢20代~40代を想定 |
| 業務内容:・オンプレミスで稼働中の既存システムを次期SQLServerへ移行するプロジェクトをリード・移行に伴う詳細設計、開発、ジョブスケジューラ設定/運用・データ一致確認試験の計画および実施・本番切替作業および過去データ移行・メンバー取りまとめと進捗管理、顧客折衝担当工程:要件確認、詳細設計、開発、テスト計画・実施、移行、リリーススキル:必須:・SQLを用いた開発経験・ジョブスケジューラの運用経験・プロジェクト遂行およびチームリーダー経験・顧客折衝を含む上流~リリースまでの経験尚可:・SQLServer環境での開発経験・HadoopもしくはDataBricksの利用経験・Pythonによる開発経験・Linux環境での開発経験稼働場所:東京都(出社メイン)その他:・稼働開始時期:9月~12月末・業種:情報・通信・メディア・外国籍不可・年齢20代~40代を希望 |
| 業務内容:キャリア向けデータ基盤を次期SQLServer環境へ移行するプロジェクトにおいて、詳細設計、開発、ジョブスケジューラ設定、PythonやDataBricksを用いたデータ処理、データ一致確認試験、切替、過去データ移行、Linux上での運用作業を担当します。担当工程:詳細設計、開発、テスト(データ一致確認)、移行、切替、運用スキル:必須:SQLでの開発経験、ジョブスケジューラの知識、コミュニケーション能力尚可:SQLServerまたはHadoopの経験、Python・DataBricks・Linuxでの開発経験稼働場所:東京都(常駐)その他:情報・通信・メディア業/開始時期9月予定~12月(延長の可能性あり)/勤務時間9:00〜18:00/現場OS:Linux、言語:SQL |
| 業務内容:Apache/Tomcatを利用した新規インフラ環境の設計・構築、機能拡張に伴う環境設定およびLinuxサーバの設計・構築を担当します。担当工程:要件確認、基本設計、詳細設計、環境構築、テスト、ドキュメント作成、運用引継ぎスキル:必須:・Apache、Tomcatを用いた実務経験・インフラ新規構築プロジェクト参画経験・Linuxサーバ設計・構築経験2年以上尚可:・Elasticsearchの構築または運用経験・Hadoopの導入または運用経験・PostgreSQLの利用経験稼働場所:宮城県(基本リモート、3か月に1回程度および構築フェーズ以降は月1回の出張あり)その他:業種:公共・社会インフラ(電力・ガス・水道)開始時期:9月期間:長期想定出張:1回につき1~4泊想定年齢目安:50代前半まで外国籍不可 |
| 業務内容:営業支援プラットフォームの新規開発および既存機能拡張におけるバックエンド開発を担当します。要件定義、設計、実装、テスト、保守運用までをアジャイル体制で推進し、ステークホルダーとの要件調整、コードレビュー、品質管理、パフォーマンス最適化、インフラ設計およびパフォーマンスチューニングを実施します。担当工程:要件定義/基本設計/詳細設計/実装/単体・結合テスト/リリース/保守運用スキル:必須:・Pythonを用いたWebアプリケーション開発経験(3年以上)・SaaSまたはクラウド環境での開発経験・アジャイルまたはスクラム開発経験・AWS環境での開発経験尚可:・JavaまたはScalaでの開発経験・Hadoop、Hive、HBaseなどBigData基盤の利用経験・Vue.js、Symfonyなどフレームワークの利用経験・自立自走で課題解決できるマインドセット稼働場所:東京都(週3日出社・週2日リモート)その他:業種:情報・通信・メディア開始時期:8月予定勤務時間:フレックスあり |
| 業務内容:GenerativeAIサービスで利用する大規模データ基盤の設計・構築・運用を担当。Python/SQLによるデータ処理パイプライン開発、RDB・NoSQL・DWHの設計運用、GCPまたはAWS上でのインフラ構築(Docker・Kubernetes利用)、API開発や外部システム連携、運用自動化・性能改善・監視設計を行う。担当工程:要件定義、基本設計、詳細設計、開発、テスト、リリース、運用保守スキル:必須:・Python/SQLでのデータ処理実務・RDB/NoSQL/DWHの設計・運用経験・GCPまたはAWSなどクラウド活用経験・Docker/Kubernetesによるインフラ構築経験・API開発またはデータ連携設計・実装経験・ビジネスレベルの日本語コミュニケーション尚可:・LLM/GenerativeAIの知見・AI学習用データの管理・整備経験・Spark/Hadoop等ビッグデータ技術の知見・データパイプライン開発3年以上の経験・多国籍/英語環境での業務経験稼働場所:東京都(週3出社+週2リモート)その他:開始時期:8月開始予定、長期継続(1〜3か月ごと更新)フレックスタイム制(コアタイム応相談)開発環境:Python、TypeScript(React/Next.js)、GCP、Docker、Kubernetes、GitHub、Slack |
| 業務内容:生命保険会社の設計書申し込みシステムの開発支援。既存のOracleデータベースからAzureDataLakeへのデータ移行およびETL開発。データはJSON形式で保存し、APIから取得。JSONのデータモデリングやETLの開発設計が主な担当範囲。担当工程:-ETL開発-バッチ開発-パフォーマンスチューニング-可用性、拡張性の検討設計-データパイプライン構築-データモデリングスキル:必須:-Oracle-AzureDataLake-AzureCosmosDB-データエンジニアリング-RDBからNoSQLへのデータ移行経験尚可:-ETLツール-MongoDB-Hadoop-Snowflake-データモデリング勤務地:東京都(基本リモート)業界:金融・保険業(生命保険)その他:-外国籍可-募集人数1名 |
| 業務内容:大手求人検索サービスにおけるデータエンジニアの業務担当工程:データエンジニアリング全般スキル:データエンジニアリングスキル大規模データ処理データパイプライン構築データウェアハウス設計ETL処理クラウドプラットフォーム(AWS、GCP、Azureなど)ビッグデータ技術(Hadoop、Spark、Hiveなど)SQLプログラミング言語(Python、Java、Scalaなど)データ可視化ツール勤務地:東京都業界:情報・通信・メディア |
| 業務内容:車両データを可視化する既存システムに新規機能を追加する開発案件。主な作業は以下の通り。・特定のデータを削除する機能追加・車両データを可視化する新規グラフ追加作業範囲は設計、製造、単体テスト、結合テスト、システムテスト、リリース作業。・車両データを可視化する既存システムへの新規機能追加開発・バックエンド(バッチ処理)の改修担当工程:設計、製造、単体テスト、結合テスト、システムテスト、リリース作業スキル:・Java開発5年以上・AWS開発2年以上・設計~開発~各種テストを自律して完遂できる能力尚可スキル:・ビックデータ開発経験(分散処理、Hadoop、Spark、AWS、EMRなど)・顧客とのコミュニケーション、報告などの経験・Iceberg、AWSS3Tablesの利用経験業種業界:自動車・輸送機器勤務地:愛知県稼働場所:リモート可、必要に応じ出社 |
| 業務内容:GenerativeAI向けデータ基盤の構築・運用支援DB設計・運用(RDB/NoSQL/DWHなど)クラウド(GCP/AWS)でのインフラ構築(Docker/Kubernetes)API開発、データ連携設計・実装データパイプライン開発必要スキル:Python/SQLによるデータ処理経験DB設計・運用経験クラウド利用経験Docker/Kubernetesを用いたインフラ構築経験API開発またはデータ連携設計・実装経験ビジネスレベルの日本語力尚可スキル:LLM/GenerativeAIの知見または活用経験AI学習用データの管理・整備経験データパイプライン開発経験Spark、Hadoopなどのビッグデータ技術の知見多国籍・英語環境での業務経験面談:オンライン開発環境:Python、TypeScript(React/Next.js)、GCP、Docker、Kubernetes、GitHub、Slack、Linear、GoogleWorkspace勤務地:東京都業種:情報・通信・メディア |
| 業務内容:エンドユーザー提供サービスの諸状況を分析・可視化する業務。複数案件を並行して進行し、ダッシュボードとしてアウトプットを提供。エンドユーザー(主にデジタルマーケティング営業活動をしている部門)と会話しリクエストを引き出しながら、アウトプットとしてダッシュボードを提供。主にダッシュボード作成用のデータ作成を担当。その他スポットのデータ抽出対応などを実施。担当工程:-エンドユーザー提供サービスの諸状況の分析・可視化-複数案件の並行進行とダッシュボード提供-エンドユーザーとのコミュニケーションとリクエスト把握-ダッシュボード作成用のデータ作成-スポットのデータ抽出対応スキル:必須:-SQLでの開発経験3年以上-BIレポートやデータ提供の要件を聞き出す業務経験-データの意味を理解し、提案できる能力歓迎:-Snowflake開発経験-ダッシュボード利用者目線での見せ方の工夫ができる能力その他情報:-勤務地:東京都-勤務形態:ほぼテレワーク、月1回出勤-勤務時間:9:00-18:00-開発環境:Snowflake、HADOOP-チーム構成:5名チーム |
| 業務内容:広告プラットフォームのデータ分析基盤構築、機械学習モデル開発、運用担当工程:データ分析基盤構築、機械学習モデル開発、運用スキル:必須:-Python(Pandas,NumPy,Scikit-learn)-SQL-機械学習モデル開発経験-クラウド(AWS/GCP/Azure)での開発経験-Docker/Kubernetes尚可:-Spark-Hadoop-データ可視化ツール(Tableau,PowerBI)-自然言語処理-広告業界経験その他:-勤務地:東京都-業種:情報・通信・メディア-リモートワーク週2日まで可-期間6ヶ月~(長期)-勤務時間9:00~18:00(休憩1時間) |
| 業務内容:クレジットカードシステム開発、加盟店データ中継システム新規構築(ホスト→Hadoop基盤へのデータ連携)基本設計・詳細設計・製造・テスト・本番リリースまで一連の作業担当工程:基本設計、詳細設計、製造、テスト、本番リリーススキル:必須:-Java開発経験(目安:5年以上)-Linux、Windows(ファイル連携システム開発のためDB無)尚可:-加盟店精算系知識および経験-Sparkフレームワーク-ApacheParquet、HDFS、Hive、VSCode、GitLab-COBOL(現行システム解析)勤務地:東京都業界:金融・保険業 |
| 業務内容:エンドユーザー提供サービスの状況分析・可視化複数案件のダッシュボード作成エンドユーザーとの要件ヒアリングダッシュボード作成用データ作成スポットのデータ抽出対応担当工程:要件定義設計開発テストスキル:SQLでの開発経験3年以上BIレポートやデータ提供の要件ヒアリング経験データの意味理解と提案能力Snowflake開発経験(尚可)ダッシュボード利用者目線での見せ方工夫(尚可)開発環境:SnowflakeHADOOP勤務形態:ほぼテレワーク(月1回出勤)勤務時間9:00~18:00案件期間:長期案件(7月開始)所在地:東京都業種:情報・通信・メディア |
| 業務内容:中部地域のSnowflake化対応プロジェクト基本設計から結合試験までの開発業務Javaを使ってSnowflake化の対応を行う結合試験時に週3日で名古屋への出張が発生する可能性あり作業場所:兵庫県神戸市必要スキル:・Java開発経験(5年以上)・DB実務経験(3年以上)歓迎スキル:・Linux実務経験(1年以上)・Snowflakeまたは、Hadoop実務経験・電力系の知識単価:70万円まで |
| 業務内容:電力システムのSnowflake化対応業務基本設計から結合試験までの対応一部期間名古屋への出張あり(3カ月程度)フル常駐担当工程:基本設計結合試験必須スキル:・JAVAの開発経験・DB実務経験尚可スキル:・Linux実務経験・Snowflakeまたは、Hadoop(Spark)実務経験・電力系の業務経験、知識勤務地:兵庫県神戸市その他:・リモートワークなし・出張可能な方が高評価 |
| 業務内容:計算ライブラリの変更(spark→Snowflake)及び、オンプレ→クラウドの載せ替えを実施する開発業務-基本設計~結合試験-Javaプログラミング-Snowflake操作-Windows環境、LinuxOSでの作業担当工程:基本設計~結合試験勤務地:兵庫県神戸市※結合試験フェーズ時は愛知県名古屋市へ週3回の出張(約3ヶ月)必要スキル:-Javaの開発経験(5年以上)-DBを扱った実務経験(3年以上)歓迎スキル:-Linuxを扱った実務経験(1年以上)-Snowflakeまたは、Hadoop(spark)を扱った実務経験-電力系の知識プロジェクト規模:10名以上 |
| 業務内容:ETL業務の運用引継ぎおよび改修を担当・ETL業務の運用引継ぎ・ETL業務の改修対応勤務地:東京都千代田区必要スキル:・Trinoに関する知識または経験・Pythonまたは他言語での開発経験・データエンジニアまたはアナリティクスエンジニアとしての業務経験歓迎スキル:・DigdagおよびEmbulkの利用経験・Hadoopなどの大規模データの分散処理技術を用いた業務経験単価:65万円就業環境:・リモートメイン・服装:ビジネスカジュアル |
| 業務内容:広告プラットフォーム運営企業におけるインフラ基盤の構築・運用業務・Linuxサーバの構築(OS・ミドルウェアのインストール/設定)・サーバキッティング・メモリ、HDD/SSD交換などのデータセンター作業必須スキル:・Linuxの構築経験2年以上・Ansibleの利用経験歓迎スキル:・Ciscoなどネットワークコマンドの利用経験・ネットワーク構築経験開発環境:・DB:MySQL・データ基盤:Hadoop・ミドルウェア:Nginx、Docker、Apache、Ansible・インフラ:オンプレミス、AWS、GCP勤務地:東京都渋谷区(リモート勤務可)勤務時間:10:00~19:00参画開始:5月/6月単価:60万円程度その他:・週4リモート可・PC貸与(MacまたはWindows選択可能) |
| 業務内容:求人検索サービスにおけるデータエンジニアとして以下の業務を担当・データパイプラインの設計/実装/運用・データウェアハウス(DWH)の設計/構築/運用・BIツールを活用したデータ可視化基盤の構築・データ品質管理、データガバナンスの整備担当工程:要件定義/設計/開発/運用保守スキル:【必須スキル】・DWH設計、構築経験・SQLを用いたデータ加工の実務経験・Python,Javaなどのプログラミング言語経験・クラウドサービス(AWS/GCP等)の実務経験【歓迎スキル】・Hadoop,Sparkなどの分散処理基盤の実務経験・データ分析基盤の設計/構築経験・BIツール(Tableau,Looker等)の実装経験・アジャイル開発経験勤務地:基本リモート単価:95万円以上 |
| 業務内容:外部委託中のETL業務の移管に伴うETL業務の運用引継ぎ、及び改修担当工程:運用保守/改修必要スキル:・Trinoに関する知識または経験・Pythonまたは他言語の経験・データエンジニアまたはアナリティクスエンジニアとしての業務経験歓迎スキル:・Digdag及びEmbulkの利用経験・Hadoopなどの大規模データの分散処理技術を用いた業務経験勤務地:東京都千代田区期間:2025年4月2日~2025年6月30日単価:65万円募集人数:4名服装:ビジネスカジュアル |
| 業務内容:データクリーンサービスのETL業務の移管に伴うETL業務の運用引継ぎ、及び改修業務場所:東京都千代田区リモートメイン(週1日程度出社)必要スキル:・Trino(Presto)スキル・Pythonスキル(他言語経験でも可)・Hadoopなどの大規模データ分散処理技術を用いた業務経験・データエンジニアまたはアナリティクスエンジニアとしての業務経験歓迎スキル:・Digdag及びEmbulkの利用経験その他条件:・稼働開始:2025年04月21日・勤務時間:10:00~19:00・服装:ビジネスカジュアル・面談:1回 |
| 業務内容:・大量のデータを扱うデータ基盤の設計・構築・運用・データパイプラインの構築・データ分析基盤の構築必要スキル:・データエンジニアとしての実務経験3年以上・Spark、Hadoop等のビッグデータ処理の知識・経験・クラウドサービス(AWS,GCP等)の利用経験尚可スキル:・機械学習、深層学習の知識環境:・基本リモート勤務・単価:95万円以上 |