新着案件をメール受信
いつでもキャンセルできます
検索キーワード:Spark
検索結果:171件
AI検証環境構築/Databricks活用・AWS上でのデータパイプライン開発 - 昨日22:32公開
| 業務内容:-AI製品導入支援および検証環境構築のフォロー-データ整理・加工要件定義と設計支援-AWS上にDatabricks基盤を構築-Databricks上でデータパイプライン及び機械学習バッチ処理を開発担当工程:要件定義・設計・実装・テスト・運用支援スキル:必須:-AWS環境でのAI関連基盤構築経験(要件定義・設計・実装)-顧客折衝および資料作成・ベンダー調整経験-データ加工プロジェクトのリーダーまたはPMO経験-Pythonによるデータ加工の設計・実装・テスト経験-機械学習バッチ処理の実装経験-自主的に作業を遂行できる姿勢尚可:-Pysparkを用いたデータ加工経験-Databricks操作経験稼働場所:東京都(テレワーク中心、必要に応じて拠点利用)その他:業種:情報・通信・メディア業界向けプロジェクト開始時期:2025年12月開始予定期間:数か月程度の案件、以降継続の可能性ありリモート:基本テレワーク、フルリモート可 |
| 業務内容:-生成AI(ChatGPT等)を活用した法人向けプラットフォームの利用ログ・業務データの分析・可視化-ユーザー行動、離脱率、機能利用状況の分析-AIモデル出力データの品質評価(精度・誤答率・業務貢献度)-Pythonによるデータ前処理、統計解析、特徴量抽出-顧客向けレポート・経営層向けダッシュボード設計-BIツール(QuickSight、Tableau、Looker等)での可視化・レポーティング-AIエンジニア・ビジネス部門との協働による施策立案・モデル改善支援担当工程:データ抽出・前処理、分析・モデリング、可視化・レポート作成、施策提案スキル:必須:Python(pandas,NumPy,scikit-learn,matplotlib等)での実務経験3年以上、SQL(MySQL,PostgreSQL,Redshift等)でのデータ抽出・集計経験、BIツールまたはJupyter等での可視化・レポーティング経験、基本的な機械学習手法(回帰・分類等)の実装経験、ビジネス課題の整理と分析テーマ設定経験尚可:QuickSight、Tableau、Looker等でのダッシュボード構築、AWS(S3,Athena,Glue,Redshift,SageMaker等)上でのデータ基盤活用、SparkやEMR等の大規模データ処理経験、A/Bテストやプロダクト改善に結びつく分析 |
| 業務内容:データ管理基盤の企画支援、要件整理、Pythonを用いた開発支援、DataBricks・Azure・Spark環境の保守・運用担当工程:企画、要件定義、設計、実装、テスト、保守・運用スキル:必須:Python開発経験尚可:Pandas開発経験、DataBricks開発経験稼働場所:大阪府その他:業種:機械・重工業(農機具メーカー向け)開始時期:相談可能 |
| 業務内容:-AI製品の導入支援およびDatabricksを用いたPoC環境の構築-AWS上でのDatabricks基盤構築、データパイプライン開発、機械学習バッチ処理実装-データ加工要件定義・設計・実装、資料作成・ベンダー折衝-金融系システムの保守・運用、仕様変更対応、Shell/SQLスクリプト作成・修正・テスト、Linux運用担当工程:要件定義、基本設計、詳細設計、実装、テスト、リリース、保守運用、ベンダー調整、資料作成スキル:必須:-AWS環境構築経験(設計・実装)-Databricks構築・操作経験(基盤構築・データ加工)-データ加工開発経験(要件定義・設計・実装)-PythonまたはPySparkでのデータ処理経験-機械学習バッチ処理開発経験-Shell/SQLスクリプト作成・修正・テスト経験-Linux運用経験-顧客折衝、資料作成経験-1人称で作業を遂行できること尚可:-PySparkでの大規模データ加工経験-金融系(証券)業務の開発・保守経験-運用保守全般の経験稼働場所:東京都(テレワーク中心、必要に応じて出社)※金融系保守は週1回早出出社ありその他:業種は情報・通信・メディア領域と金融・保険領域の横断プロジェクトです。開始時期は相談に応じます。日本国籍の方が対象となります。 |
| 業務内容:-AI製品の導入支援およびデータ整理支援-AI製品環境構築のフォロー、ベンダ調整、ノウハウ蓄積-データ加工要件定義・設計・実装支援-AWS上にDatabricksを構築-Databricksでのデータパイプライン開発(機械学習バッチ処理を含む)担当工程:要件定義、基本設計、詳細設計、実装、ベンダ調整、テスト、運用支援スキル:必須:AWS環境構築経験(S3、IAM、RedShift等)、Databricks構築経験、Pythonによるデータ加工実装経験、機械学習バッチ処理作成経験、顧客折衝・資料作成・ベンダ調整経験、データ加工リーダーまたはPMO経験、単独で作業を遂行できること尚可:Pysparkでのデータ加工経験、Databricks操作経験稼働場所:東京都(テレワーク中心)その他:業種:情報・通信・メディア、期間:2025年12月〜2026年3月、人数:各1名 |
| 業務内容:-AWS上にDatabricksを構築-Databricksでデータパイプライン開発-機械学習バッチ処理の実装担当工程:-基盤設計・構築-データ加工ロジック設計・実装・テスト-バッチ処理実装スキル:必須:-AWS環境構築経験(S3、IAM、RedShiftまたは各種DB、VPC)-Pythonによるデータ加工経験(設計・実装・テスト)-機械学習バッチ処理作成経験-1人で作業を遂行できること尚可:-PySparkでのデータ加工経験-Databricks操作経験(参画後に習得可)稼働場所:東京都(テレワーク中心)その他:-業種:情報・通信・メディア-リモート案件-開始時期は相談 |
| 業務内容:・AI製品の導入支援・データ整理・加工支援・顧客折衝(製品説明資料作成・ベンダ調整)・英語資料の読解(翻訳ツール使用可)担当工程:要件定義、設計、実装、データ加工開発、顧客折衝スキル:必須:AI関連のAWS環境構築経験(要件定義・設計・実装)、データ加工開発のリーダーまたはPMO経験、データ加工開発経験、1人称で作業を遂行できること尚可:Pysparkでのデータ加工経験、Databricksの操作経験(参画後に習得可)稼働場所:東京都(テレワーク中心)その他:業種:情報・通信・メディア(通信会社向け案件)、リモート案件 |
| 業務内容:・現行データ分析基盤(Talend・RedShift)の課題抽出・クラウドベースのデータ分析アーキテクチャの検討・大量データバッチ処理の改善点抽出・設計担当工程:・調査・要件定義・設計スキル:必須:大量データを処理するバッチシステムの設計経験、Talend・RedShiftの課題抽出経験尚可:ApacheSparkの実務経験稼働場所:東京都(リモート併用)その他:業種:情報・通信・メディア(データ分析領域)開始時期:相談外国籍不可 |
| 業務内容:-企画支援(現状調査、現場ヒアリング支援)-要件整理支援(機能・非機能要件の取りまとめ)-開発支援(Python・DataBricks・Azure・Sparkを用いた実装)担当工程:-運用・保守-企画・要件定義-開発実装スキル:必須:Pythonでの開発経験(2年以上)尚可:Pandasでの開発経験、DataBricksでの開発経験稼働場所:大阪府その他:業種:機械・重工業(農機具メーカー)開始時期:2026年1月開始予定 |
| 業務内容:AWS上のデータウェアハウス(DWH)システムの保守・開発。ApacheIceberg・Glue(PySpark)等を活用したデータ処理基盤の運用。担当工程:保守、機能追加、バッチ処理開発、CI/CDパイプライン構築支援など。スキル:必須:クラウド環境での開発・保守経験、Python(3年以上)、SQL、Git、顧客折衝経験尚可:リーダー経験(3~4名規模)、バッチ系システム開発・保守経験、クラウドインフラ構築経験、CI/CDパイプライン構築・運用経験稼働場所:東京都(恵比寿)在宅勤務併用可能その他:業種:情報・通信・メディア(データ基盤領域)開始時期:12月~年齢制限:50歳代まで外国籍不可 |
AI SaaSデータ分析/データサイエンティスト募集/フルリモート交渉可 - 18日前に公開
| 業務内容:-生成AIプラットフォームの利用ログ・業務データの分析・可視化-ユーザー行動・離脱率・機能利用状況の分析-AIモデル出力データの品質評価(精度・誤答率・業務貢献度)-Pythonによるデータ前処理・統計解析・特徴量抽出-顧客向けレポート・経営層向けダッシュボード設計-BIツール(QuickSight、Tableau、Looker等)を用いた可視化・レポーティング-AIエンジニア・ビジネス部門との協働による施策立案・モデル改善支援担当工程:データ抽出・前処理、統計解析、機械学習モデル評価、可視化・ダッシュボード作成、レポート作成、施策提案スキル:必須:Pythonでのデータ分析実務経験(pandas、NumPy、scikit-learn、matplotlib等)SQL(MySQL/PostgreSQL/Redshift等)によるデータ抽出・集計経験BIツールまたはJupyter等を用いたデータ可視化・レポーティング経験統計分析・機械学習手法(回帰・分類等)の実装経験ビジネス課題を整理し、分析テーマに落とし込んだ実務経験尚可:QuickSight、Tableau、Looker等でのダッシュボード構築経験AWS(S3、Athena、Glue、Redshift、SageMaker等)上でのデータ基盤活用経験Spark/EMR等の大規模データ処理基盤経験A/Bテストや |
| 業務内容:-DataLake内のシステム・データ整備-ユーザー要件確認、保守改修課題整理-要件定義、設計、開発、テスト担当工程:要件定義、基本設計、詳細設計、実装、テスト、運用保守スキル:必須:AWSGlue、StepFunctions、Athena、S3、Lambda、Notebook等のデータ系サービス、Python、PySpark(API)尚可:Databricksの利用経験、データウェアハウス設計経験、CI/CD環境構築経験など稼働場所:東京都(週1~2回の現場出社、残りはリモート勤務)その他:業種:保険業界向けデータ基盤構築プロジェクト開始時期:2025年12月開始予定、長期プロジェクト就業時間:9:00〜18:00(休憩1時間) |
| 業務内容:-PalantirFoundry(Slate、Workshop、CodeRepositories)上での画面改修・新規作成-データパイプラインの改修・新規作成(PythonPyspark)-JavaScript/TypeScript、HTML、CSSを用いたフロントエンド実装-要件定義からリリースまでのフェーズを担当担当工程:要件定義、設計、実装、テスト、リリーススキル:必須:TypeScriptまたはJavaScriptとCSSの実務経験、RDBに関する知識・経験、Pythonの実務経験(未経験の場合は他言語経験でキャッチアップ可)、自立的にタスクを遂行できるコミュニケーション能力尚可:Pysparkを用いたデータ加工経験、大規模データ統合・分析基盤の開発経験稼働場所:東京都(テレワーク、将来的に出社の可能性あり)その他:業種:情報・通信・メディア、データ統合・分析基盤、開始時期:2025年12月から長期想定 |
| 業務内容:-PalantirFoundry(Slate、Workshop、CodeRepositories)上のダッシュボード・ツール群の改修および新規作成-JavaScript、TypeScript、HTML、CSS、Python(PySpark)を用いたフロントエンド実装とデータ加工ロジックの実装-要件定義から設計、実装、テスト、リリースまでの全工程を担当担当工程:要件定義、基本設計、詳細設計、実装、単体テスト、結合テスト、リリース作業スキル:必須:TypeScriptまたはJavaScriptの実務経験、CSSの実務経験、RDB(リレーショナルデータベース)に関する知識・経験、Pythonの実務経験(未経験でも他言語経験でキャッチアップ可、主にPySparkを使用)尚可:なし稼働場所:東京(基本テレワーク)、将来的に新宿オフィスへの出社の可能性ありその他:業種:情報・通信・メディア、作業開始時期:2025年12月から、募集人数:1名、日本国内在住者限定、チームメンバーと双方向コミュニケーションを取りながら自立的にタスクを遂行できることが求められます。 |
データレイク構築/BI可視化/Terraform・Apache Spark活用 - 24日前に公開
| 業務内容:-データレイク(レイクハウス)構築-データパイプライン設計・運用-BIツールによるデータ可視化・PoC実施-要件定義からリリース後のフォローまで一貫担当-Terraform、ApacheSpark、AWS各種サービスを用いた基盤構築担当工程:要件定義、設計、開発、テスト、リリース、運用・保守スキル:必須:AWS(S3、Athena、Glue、QuickSight、LakeFormation)実務経験、Terraform実務経験、ApacheSpark実務経験、データレイク構築経験、データパイプライン設計・運用経験、BIツール利用経験、顧客との要件定義経験、システム構成図・アーキテクチャ図作成経験、能動的に自ら動ける姿勢尚可:AIモデル開発環境構築経験、AWSRedshift・EMR・SageMaker利用経験稼働場所:東京都、出社週2回、テレワーク併用その他:情報・通信・メディア分野の長期プロジェクト、開始時期は2025年12月頃、外国籍可、長期継続が見込まれる |
コンビニ向けDatabricksパフォーマンス改善/Pysparkコード最適化 - 24日前に公開
| 業務内容:-Databricks環境でのPysparkコード修正-パフォーマンスチューニング実施-改修後のテスト・検証担当工程:-実装-テストスキル:必須:Pysparkのコーディング経験、Pysparkでのパフォーマンスチューニング経験尚可:DatabricksでのPyspark開発経験(未経験でも学習可能)稼働場所:フルリモートその他:業種:流通・小売業/コンビニエンスストア開始時期:12月開始、長期想定人数:1名 |
| 業務内容:-Python/PySparkを用いたシステムの再構築-タスク整理(WBS作成)・進捗・課題・メンバー管理-報告書作成、会議出席、プロジェクト推進支援担当工程:基本設計、詳細設計、実装、テスト、運用保守スキル:必須:Python、AWSGlueを使用した開発経験、クラウド上でのシステム開発・保守経験、基本設計以降の開発経験、円滑なコミュニケーションとリーダーシップ尚可:PySparkの実務経験、リーダー/サブリーダーとしてのチームマネジメント経験稼働場所:東京都(リモート併用、週2日程度出社)その他:業種:金融・保険業(金融機関向けデータ分析システム)開始時期:2025年12月期間:2025年12月~2026年3月(延長予定)勤務時間:9:00~18:00 |
Databricks上のPysparkパフォーマンス改善/フルリモート/即開始 - 24日前に公開
| 業務内容:-Databricks上でのPysparkコード修正-パフォーマンスチューニング実施-修正後のテスト実行担当工程:-実装・テストスキル:必須:Pysparkでのコーディング経験、パフォーマンスチューニング経験(自走可能)尚可:DatabricksでのPyspark開発経験、学習意欲がある方稼働場所:フルリモートその他:業種:小売・チェーン店(コンビニ向け)開始時期:12月人数:1名 |
受発注管理システム更改/ETL再構築(AWS Glue・PySpark) - 25日前に公開
| 業務内容:AWSGlue(VisualETL)またはPySparkを用いたETLの設計・開発、RDBMSおよびAmazonRedshiftとの連携、データマートの構築を担当します。担当工程:要件定義、ETL設計、開発、テスト、データマート構築、運用引き継ぎまでの一連の工程を担当します。スキル:必須:AWSGlue(VisualETL)またはPySparkの実務経験、RDBMSの使用経験尚可:Python、SQL、AmazonRedshift、AmazonS3、Power BIの知識・経験稼働場所:フルリモート勤務(必要時は東京23区内への出社あり)その他:業種:情報・通信・メディア使用ツール・サービス:AWSGlue、AmazonRedshift、AmazonS3、Power BIなど |
| 業務内容:-生成AI(ChatGPT、GPT-4等)プラットフォームの利用ログ・業務データを分析・可視化-ユーザー行動、離脱率、機能利用状況の分析-AIモデル出力データの品質評価(精度、誤答率、業務貢献度)-Pythonを用いたデータ前処理、統計解析、特徴量抽出-顧客向けレポート作成および経営層向けダッシュボード設計-BIツール(QuickSight、Tableau、Looker等)での可視化・レポーティング-AIエンジニア・ビジネス部門と協働し施策立案・モデル改善支援担当工程:データ抽出・前処理、統計解析・機械学習モデル評価、可視化・ダッシュボード作成、レポート作成、施策提案スキル:必須:Python(pandas、NumPy、scikit-learn、matplotlib等)でのデータ分析実務3年以上、SQL(MySQL、PostgreSQL、Redshift等)でのデータ抽出・集計経験、BIツールまたはJupyter等でのデータ可視化・レポーティング経験、統計分析・機械学習手法(回帰・分類等)の実装経験、ビジネス課題を分析テーマに落とし込んだ経験尚可:QuickSight、Tableau、Looker等でのダッシュボード構築経験、AWS(S3、Athena、Glue、Redshift、SageMaker等)上でのデータ基盤活用経験、Spark・EMR等大規模デー |
| 業務内容:-データレイク(レイクハウス)基盤の構築-AWS上でのデータパイプライン設計・運用(S3、Athena、Glue、LakeFormation等)-ApacheSparkを用いたデータ加工ジョブの開発-Terraformによるインフラ自動化-BIツールによるデータ可視化およびレポート作成-要件定義から設計、開発、テスト、リリース、稼働後フォローまでの一連作業担当工程:要件定義、システム構成・アーキテクチャ設計、インフラ構築、パイプライン開発、テスト、リリース、運用保守スキル:必須:AWS(S3、Athena、Glue、QuickSight、LakeFormation)実務経験、Terraform、ApacheSpark、BIツール利用経験、データレイク(レイクハウス)構築経験、データパイプライン設計・運用経験、システム構成図・アーキテクチャ設計経験、顧客との要件定義経験、能動的に動く姿勢尚可:AIモデル開発環境構築経験、AWSRedshift、EMR、SageMaker等の利用経験稼働場所:東京都(出社週2回)+テレワーク併用その他:業種:情報・通信・メディア、開始時期:2025年12月頃、長期プロジェクト、外国籍の方も可 |
| 業務内容:PalantirFoundry(Slate、Workshop、CodeRepositories)上で構築されたダッシュボード・ツール群の画面改修、データパイプライン改修、新規作成を実施し、要件定義からリリースまでを担当します。担当工程:要件定義、設計、実装、テスト、リリーススキル:必須:TypeScriptまたはJavaScript、CSSの実務経験、RDBに関する知識・経験、Python(主にPySpark)でのデータ加工経験(未経験の場合は他言語での開発経験によりキャッチアップ可)、双方向コミュニケーションを取りながら自立的にタスクを遂行できること尚可:なし稼働場所:テレワーク(将来的に出社の可能性あり)その他:業種:情報・通信・メディア、開始時期:2025年12月、勤務地:東京都(テレワーク中心)、日本国内在住者限定 |
| 業務内容:-AWS上のデータウェアハウス(DWH)システムに対する機能追加、改修、保守-データベースはApacheIceberg、ETLはAWSGlue(PySpark)を使用-ジョブ管理はEventBridge・StepFunctions、監視はCloudWatch・Datadog担当工程:-要件定義、設計、実装、テスト、運用保守、CI/CDパイプライン構築スキル:必須:-クラウド(AWS)での開発・保守経験-Terraformによるインフラ構築経験-Gitを用いたバージョン管理経験尚可:-小規模チーム(3〜4名)でのリーダー経験-バッチ系システムの開発・保守経験-AWSGlue、StepFunctions、IAM、VPCの実務経験-TerraformでのCI/CDパイプライン構築・運用経験-SQLの実務経験稼働場所:東京都(在宅勤務併用可)その他:業種:情報・通信・メディア開始時期:2025年12月開始(長期案件) |
| 業務内容:クラウド(AWS)上に構築されたデータウェアハウスシステムの保守・新規機能開発を担当します。ApacheIcebergを利用したデータレイクの管理、Glue(PySpark)によるETLジョブの作成・運用、EventBridgeとStepFunctionsを用いたジョブスケジューリング、CloudWatch・DataDogによる監視設定・障害対応を行います。担当工程:要件定義、設計、実装、テスト、運用保守、ジョブ管理スキル:必須:AWS環境での開発・保守経験、SQLの実務経験、Python(開発経験)、Gitの使用経験尚可:小規模チームでのリーダー経験、バッチ系システムの開発・保守経験、クラウドインフラ構築経験、Terraformを用いたCI/CDパイプラインの構築・運用経験稼働場所:東京都(在宅勤務あり)その他:業種:情報・通信・メディア、開始時期:2025年11月または12月開始、募集人数:2名 |
| 業務内容:-Python/PySparkを用いた信用リスク評価システムの再構築-タスク整理(WBS作成)・進捗・課題・メンバー管理、各種報告書作成-プロジェクト推進に関わる会議出席・報告-その他プロジェクト推進業務担当工程:-基本設計以降のシステム開発-プロジェクトマネジメント・進捗管理スキル:必須:Python開発経験、クラウドシステムの開発・保守経験、システム開発経験(基本設計以降)、関係者とのコミュニケーション力・リーダーシップ、自走力尚可:PySpark実務経験、チームマネジメント(リーダー/サブリーダー)経験稼働場所:東京都(リモート併用、週2日程度出社)その他:業種:金融・保険業(銀行・信託)/データ分析システム統合プロジェクト開始時期:2025年12月開始、2026年3月終了予定(延長あり)募集人数:1名対象年齢:20代~30代(最大40歳程度)希望外国籍:不可 |