新着案件をメール受信
いつでもキャンセルできます
検索キーワード:データ分析
検索結果:2889件
金融系企業向けビッグデータ分析基盤構築/BigQuery活用支援/リモート中心 - 10日前に公開
| 業務内容:-BigQuery等のデータベース・CDP基盤の構築とデータ集約-蓄積データのマーケティング活用(アプリ、Web、LINE等)-クライアントへのデータ活用伴走支援(KGI/KPI策定、PDCAサイクル実行)-金融業界向けデータ分析・AIモデル開発・可視化担当工程:-要件定義、設計、実装、テスト、運用支援、データ活用伴走支援スキル:必須:-BigQueryを用いたデータ分析・プロジェクトリード経験-データ集約・活用に関する知見-SQL・Pythonによるデータ処理スクリプト開発経験-クライアント課題抽出・改善策立案経験-PMと協働した課題解決のコミュニケーション能力-データ可視化(ドキュメント作成)スキル尚可:-LookerStudio等でのダッシュボード構築実績-アプリのプッシュレコメンド実装経験-KGI/KPIの検討・策定スキル-コンサルティング経験-ビッグデータ系システム開発・運用(ETL/DWH/パイプライン)経験-AWS、GCP、Azureいずれかのクラウド上でのデータ開発経験-大規模データのパフォーマンスチューニング経験-E資格相当の知見稼働場所:東京都(週1程度出社、リモートメイン)その他:-業種:金融-開始時期:2025年12月開始、長期-参画人数:1名 |
ハイパーカジュアルゲームプランナー/未経験歓迎/東京都 - 11日前に公開
| 業務内容:-マスターデータの登録-運用進行管理-機能企画の推進-デバッグ作業-キャラクター構成案作成-データ分析担当工程:企画・運用・デバッグスキル:必須:社会人経験(1年以上)、やる気・コミット力尚可:なし稼働場所:東京都(出社+リモート)その他:業種:情報・通信・メディア、未経験歓迎、社会人経験があれば応募可 |
| 業務内容:-自社需要予測クラウドサービスのバックエンド(Python、AWSAmplify/Lambda)およびフロントエンド(React、Vue、Nuxt、Next等)の開発担当工程:-設計、実装、テスト、デプロイ、保守(バックエンド約70%、フロントエンド約30%)スキル:必須:Python実務経験2年以上、AWSAmplify/Lambda利用経験、React(またはVue/Nuxt/Next)開発経験1年以上、基本的なコミュニケーション力尚可:GCP利用経験、需要予測・データ分析系システム開発経験稼働場所:東京都内(週2回出社:火曜・木曜)/リモート勤務(在宅のみ)その他:業種:情報・通信・メディア、長期案件、勤務時間9:00〜17:30、服装オフィスカジュアル、PC貸与、年齢上限35歳まで、開始時期は相談 |
データ分析基盤PoC支援/Databricks活用テレワーク・東京都出社あり - 11日前に公開
| 業務内容:-データ分析基盤の設計・構築・試験-Databricks環境の導入支援-顧客向け資料作成および説明担当工程:PoC支援全般(設計、構築、試験、導入、資料作成・説明)スキル:必須:インフラ基盤全般(サーバ、ネットワーク、セキュリティ)の設計・構築経験、AWSWell‑ArchitectedFrameworkに基づくAWS主要サービス(S3、IAM、Lambda、StepFunctions、CloudWatch等)の設計・構築経験、作業計画作成およびQCDのセルフマネジメント能力尚可:Databricks環境の設計・構築経験、Snowflake等類似ソリューションの設計・構築経験、DatabricksDataEngineerAssociate等の資格取得または自己学習による知識稼働場所:原則テレワーク。作業内容により東京都内への出社や客先作業が発生する場合あり。その他:業種:保険業(大手損害保険会社向けデータ分析基盤構築)/開始時期は相談 |
生命保険データ分析基盤構築/統合CRM開発・PMOサポート - 11日前に公開
| 業務内容:-既存システムリプレイスに向けた処理検討-ETL設計書(機能詳細・データフロー図等)作成-MicrosoftFabricとPySparkを用いたETL開発・試験(Pythonライブラリ作成含む)-I/F単位でのアジャイル的進行管理-各種報告資料作成・更新、工数管理、会議コーディネート、議事録作成、ドキュメント管理担当工程:PMOサポート、要件定義・内部設計、ETL開発・テスト、進行管理、ドキュメント管理スキル:必須:対人コミュニケーション能力(顧客・リーダ層との折衝)/PMO業務またはプロジェクト進行管理経験/ETL設計・実装経験/Python(特にPySpark)使用経験/MicrosoftFabricの基礎知識尚可:データ分析基盤構築経験/CRMシステム開発・保守経験稼働場所:東京都(テレワーク可、試験は開発拠点に出社)その他:業種:保険業(金融・保険業)/募集人数:1名 |
PowerBI活用アジャイル開発支援/データ分析基盤構築 - 11日前に公開
| 業務内容:・PowerBIを中心としたデータ分析基盤のアジャイル開発・Fivetran、dbt、Alteryx、Snowflakeなど複数技術の統合・運用・ユーザーとのコミュニケーションを伴う開発プロセスの実施担当工程:アジャイル開発における要件定義、設計、実装、テスト、デプロイ、運用支援全般スキル:必須:PowerBI、Fivetran、dbt、Alteryx、Snowflakeのうち複数の実務経験尚可:アジャイル開発経験、円滑なコミュニケーション能力稼働場所:大阪府(常駐、リモートなし)その他:業種:情報・通信・メディア開始時期:相談に応じて決定長期参画を優先外国籍可(日本語での読み書き・会話必須)基本的に休日出勤はなし(プロジェクト状況により発生の可能性あり) |
| 業務内容:-基本設計・詳細設計-試験・導入作業-顧客向け資料作成・説明-PoC支援(Databricks関連)担当工程:設計、試験、導入、資料作成、説明、PoC支援全般スキル:必須:インフラ基盤の基本設計経験5年以上、AWS基本設計経験(S3、IAM、Lambda、StepFunctions、CloudWatch、CloudWatchLogs)使用実績、作業計画作成およびQCDのセルフマネジメントが可能尚可:Databricks環境の設計・構築経験、またはSnowflake等類似ソリューションの設計・構築経験、DatabricksDataEngineerAssociateなどの資格取得または自己学習による知識稼働場所:東京都豊洲(原則テレワーク)。作業内容により豊洲出社や客先作業が発生する場合があります。遠方客先作業は別途相談。その他:業種:保険業(損害保険)開始時期は相談に応じます。 |
AI×SaaS対話型UIプロダクトPdM募集/一部リモート可/東京 - 11日前に公開
| 業務内容:-プロダクト要件定義・ユーザーストーリー作成-新規/既存機能のUI/UX設計-プロダクトロードマップ策定からリリースまでの推進-ビジネス部門と連携し顧客課題の抽出・整理-開発・セールス・カスタマーサクセスとの連携・調整担当工程:要件定義、UI/UX設計、ロードマップ策定、リリース推進、関係部門調整スキル:必須:-SaaSプロダクトにおけるプロダクトマネージャー経験(2年以上)-エンジニア・セールス・カスタマーサクセスなど多職種との協業経験-プロダクト課題の整理と改善施策立案実績尚可:-SaaS/BtoB領域でのプロダクトマネジメント経験-アジャイル開発環境での業務経験-新規事業立ち上げ経験-データ分析に基づく意思決定経験稼働場所:一部リモート可(東京都)その他:業種:情報・通信・メディア開始時期:2026/01/01勤務形態:フルフレックス制、週5日勤務 |
| 業務内容:CogniteSDKを使用し産業・エネルギー領域のデータ取得・加工・更新を実施担当工程:データ取得ロジックの実装/データ加工処理の開発/更新処理の実装スキル:必須:Pythonによる開発経験1年以上/前向きに新しいことに取り組む姿勢/能動的に動ける姿勢尚可:Pandasを用いたデータ分析経験/macOS環境での開発経験稼働場所:東京都その他:業種:産業・エネルギー分野のデータ分析プロジェクト/開始時期:2026年1月予定/期間:2026年1月~4月(延長の可能性あり)/リモート可/チームはエンジニア中心 |
Cookie同意ツールエスカレーション業務/ヘルプデスク/自動化ツール経験者歓迎 - 11日前に公開
| 業務内容:Cookie同意ツールに関する一次対応エスカレーション業務を担当し、テキストでの問い合わせ受付・割り振り、エスカレーション支援、データ分析、データベース管理、業務自動化ツールの導入支援を実施担当工程:一次対応エスカレーション、データ分析、DB管理、業務自動化導入支援スキル:必須:ヘルプデスク経験、自動化ツール使用経験尚可:なし稼働場所:東京都(週1回リモート勤務可)その他:業種:情報・通信・メディア、対象:若手・女性(35歳まで) |
Webディレクター/出版社系メディアのコンテンツ・広告ディレクション - 11日前に公開
| 業務内容:-編集チームや外部制作会社と協業し、Webメディアのコンテンツ運用をディレクション-タイアップコンテンツのWebページ制作-バナー・キービジュアル等のメディア資材制作-デジタルキャンペーンの企画・制作・進行-リッチ広告・ソーシャルプロモーションの制作・入稿サポート-GoogleAnalytics等を用いたサイトパフォーマンス改善とレポート作成-納品物のクオリティ管理担当工程:-企画・要件定義-デザイン・制作ディレクション-プロジェクト管理・進捗管理-品質管理・納品確認-データ分析・改善提案スキル:必須:Webディレクション実務3年以上、Photoshop・Illustrator使用経験3年以上、PowerPoint/Excelでの提案書作成、広告コンテンツ制作経験、CMSでのコンテンツ管理経験、Backlog・Notion・Asana等のプロジェクト管理ツール使用経験尚可:雑誌編集経験、メディアサイトの運営・プロモーション企画経験、代理店渉外経験、CMS改修ディレクション経験、GoogleAnalytics活用分析経験、Figma・XD等のプロトタイピングツール使用経験、Premiere・AfterEffectsでの動画制作経験、Webサイトリニューアル経験、大規模メディア運用実務経験、マルチディシプリンチームのリーダー経験稼働場所:東京都(リモート可、必要 |
AWSデータ分析基盤開発/運用要員募集/リモート中心 - 11日前に公開
| 業務内容:・顧客IT部門担当者との要件整理・構想策定・I/FおよびETLの設計・開発・SnowFlake(DMP)活用に向けた検討・改善・タスク管理・課題立案・解決推進・本番環境での調査・対処・エスカレーション等の運用対応担当工程:要件定義、設計、開発、テスト、運用スキル:必須:Pythonによる開発経験、Terraformによるインフラ構築経験、DMP(SnowFlake)開発・運用経験、要件整理工程経験(1年以上)、開発・運用経験(2年以上)尚可:アジャイル開発経験、SnowFlakeの開発・運用経験、AWS全般のアーキテクチャ・インフラ開発・運用経験、PM/PL/PMOの横断的調整経験、WebPerformerの開発経験稼働場所:基本リモート、週1〜2回出社あり(東京都)その他:業種:食品・飲料、情報・通信・メディア(データ分析基盤)開始時期:即日相談可プロジェクト規模:単体要員 |
| 業務内容:-データ分析基盤のPoC支援におけるインフラ基盤の基本設計-AWS(S3、IAM、Lambda、StepFunctions、CloudWatch、CloudWatchLogs)を用いた設計・構築-Databricks環境の設計・構築支援-テスト実施、本番導入-顧客向け資料作成および説明担当工程:基本設計、詳細設計、構築・実装、テスト、導入、資料作成・プレゼンテーションスキル:必須:インフラ基盤の基本設計経験5年以上、AWS各種サービスの設計経験、作業計画作成およびQCDのセルフマネジメント能力尚可:Databricks環境の設計・構築経験、Snowflake等類似データウェアハウスの設計・構築経験、DatabricksDataEngineerAssociate等の資格または自己学習による知識稼働場所:原則テレワーク、業務内容に応じて東京での出社や客先作業ありその他:業種:保険(大手損害保険会社)、開始時期:2026年1月、プロジェクトはPoC支援を目的とした短期/中期案件 |
建設業界DX機械学習エンジニア/フルリモート・Python・AWS - 11日前に公開
| 業務内容:-建設業界向けDXプラットフォーム「GORLEM」のコア機械学習予測モデルの設計・実装-会社別建設データの解析用コーディング-要件定義に基づく新機能開発・モデル改善-データ分析基盤の開発・整備・保守-データ前処理・後処理パイプライン(ETL/ELT)の構築担当工程:-要件定義、設計、実装、テスト、デプロイ、運用保守全般スキル:必須:Pythonによる機械学習(回帰・分類)モデルの実装・本番運用経験(3年以上)、NLPを活用した開発経験、AWS等クラウド環境でのシステム開発・デプロイ・運用経験、Gitによるチーム開発経験、Docker等コンテナ技術の実務経験、論理的なコミュニケーション能力尚可:スクラッチからの機械学習モデル設計・開発経験、建設業界等ドメイン特有の複雑データの機械学習分析経験、ETL/ELTパイプライン構築経験、AmazonSageMaker活用経験、豊富な実装経験稼働場所:フルリモート(東京都在住可)その他:業種:建設業(DX推進)/チーム規模:2〜5名/稼働日数:週4日または週5日/募集人数:1名/対象年齢:25〜50歳/外国籍:不可 |
建設業界DXデータ予測モデル開発/機械学習エンジニア・フルリモート - 11日前に公開
| 業務内容:-建設業界向けデータ予測モデルの開発(要件定義、設計、実装、評価、改善)-データ分析基盤の整備・保守(データ前処理・後処理パイプライン構築、AWS上での運用)担当工程:要件定義、設計、実装、テスト、デプロイ、運用・保守スキル:必須:-Pythonによる機械学習(回帰・分類)モデルの実装・運用経験-NLPを活用したプロダクト開発経験-AWS等クラウド環境でのシステム開発・デプロイ経験-Gitを用いたチーム開発経験、Docker等コンテナ技術の実務経験-論理的なコミュニケーション能力尚可:-スクラッチから機械学習モデルを設計・開発し、性能改善を行った経験-建設業界などドメイン特有の複雑データを対象とした機械学習分析経験-ETL/ELTパイプライン構築経験-AmazonSageMakerを用いた機械学習パイプライン構築経験-豊富な実装経験稼働場所:フルリモート(関東在住者歓迎)その他:-業種:建設業界向けDX支援-勤務開始時期:相談に応じて調整可能-リモート勤務が中心 |
| 業務内容:AWS(S3、IAM、Lambda、StepFunctions、CloudWatch、CloudWatchLogs)およびDatabricksを用いたデータ分析基盤の設計、試験、導入、資料作成、顧客説明を実施します。担当工程:基本設計、詳細設計、構築、テスト、導入支援、ドキュメント作成、顧客向けプレゼンテーション。スキル:必須:インフラ基盤の基本設計経験、AWSの基本設計~構築経験(S3、IAM、Lambda、StepFunctions、CloudWatch、CloudWatchLogs)、作業計画作成およびQCDセルフマネジメントが可能な方。尚可:Databricks環境の設計・構築経験、Snowflake等類似ソリューション経験、Databricks資格(Associate等)または自己学習経験。稼働場所:原則リモート、必要に応じて東京都内出社。その他:業種は保険業界、プロジェクトはPoCフェーズ、開始時期は相談に応じて決定。 |
建設業界DXデータ予測モデル開発/機械学習エンジニア/フルリモート - 11日前に公開
| 業務内容:-建設業界データ予測モデルの設計・実装-企業ごとの建設データ解析処理のコーディング-要件定義に基づく新機能開発・モデル・システム改善-データ分析基盤の開発・整備・保守-データ前処理・後処理パイプラインの構築担当工程:機械学習モデルの設計・実装、データパイプライン構築、分析基盤保守などスキル:必須:Pythonでの機械学習(回帰・分類)実務経験、NLPを用いた開発経験、AWS等クラウド環境でのシステム開発・デプロイ・運用経験、Gitによるチーム開発、Docker等コンテナ技術の実務経験、高い論理的コミュニケーション能力尚可:スクラッチから機械学習モデル設計・開発経験、建設業界等ドメイン特有の複雑データの機械学習分析経験、ETL/ELTパイプライン構築実務経験、AmazonSageMakerを用いた機械学習パイプライン構築経験、豊富な実装経験稼働場所:フルリモートその他:業種:建設業界向けDX支援、開始時期:即日または相談、勤務人数:1名、求める人物像:50代まで |
フルリモート/SQL・dbt活用アナリティクスエンジニア案件 - 12日前に公開
| 業務内容:-dbtを用いたデータパイプラインの構築・リファクタリング-SQLによるDWH/データマートの設計・運用-データ利活用のための環境整備・BIツール導入支援担当工程:要件定義、設計、実装、テスト、運用保守スキル:必須:dbt(databuildtool)での開発・運用経験、SQLを用いたDWH/データマート構築・運用経験尚可:GCP環境でのデータ分析基盤構築・運用経験、Terraformによるリソース管理経験稼働場所:フルリモート(地方可)その他:業種:情報・通信・メディア(自社サービス提供)開始時期:相談フレックスタイム制(コアタイムあり)服装自由、PC貸与あり |
| 業務内容:PowerPlatform(PowerAutomate、PowerApps、PowerBI)を用いたデータ分析およびフロントエンド開発支援。設計、開発、テスト、運用支援を実施。担当工程:設計、開発、テスト、運用支援全般。スキル:必須:PowerPlatform(PowerAutomate、PowerApps、PowerBI)の実務経験尚可:データ分析基盤構築経験、SQLの知識稼働場所:フルリモート(愛知県)その他:業種:情報・通信・メディア開始時期:2026年1月契約期間:2026年1月~2027年3月募集人数:1名勤務形態:リモートワーク中心 |
ヘアサロン予約データ分析/SQL設計・実装/在宅勤務 - 12日前に公開
| 業務内容:全国のヘアサロン予約情報を活用し、利用者傾向や掲載内容の違いによる集客効果を分析。データ抽出・加工・分析を行い、SQLによるデータ論理設計・実装、Pythonでのレポート作成を実施。AWS(EC2,RDS,CodeCommit)・GCP(BigQuery,Dataflow)上での作業を含む。担当工程:要件定義、基本設計、詳細設計、テスト、リリーススキル:必須:SQLの設計・実装経験、3年以上のシステム開発経験、要件定義からリリースまでの工程理解、在宅勤務への積極的姿勢尚可:BIツール使用経験、データ分析業務経験、データ論理設計経験稼働場所:在宅勤務、客先(東京都)での対面サポート(数日間)その他:業種:情報・通信・メディア、ヘアサロン検索・予約サイト、開始時期:即日または相談、交代枠での安定稼働、外国籍不可 |
| 業務内容:-Pythonでの詳細設計以降の単独対応-PostgreSQL(RDS)からのデータ抽出・加工-Power BI用公開データ作成機能の開発・改修-基本設計、詳細設計、プログラム開発、単体テスト、結合テスト、システムテスト担当工程:詳細設計、実装、テスト全般(基本設計からシステムテストまで)スキル:必須:Pythonでの詳細設計以降の単独担当経験尚可:PostgreSQL(RDS)を用いた開発経験、Java実務経験3年以上稼働場所:大阪府末広町(週2出社、週3テレワークを想定)その他:業種:情報・通信・メディア(データ分析・BI領域)作業期間:2026年1月5日〜2026年3月31日(約3か月)勤務時間:9:00〜17:45(昼休憩45分、夕方休憩17:45〜18:00)残業少なめ、スポット案件 |
エレベーター点検データ分析アルゴリズム開発支援/Python・C++対応 - 12日前に公開
| 業務内容:既存Pythonコードを用いてエレベーター・エスカレーター点検装置の計測データを分析・検証判定ロジックのアルゴリズム改善および最適化分析結果のレポート作成とドキュメント整備担当工程:要件確認、データ前処理、アルゴリズム実装、テスト、結果報告スキル:必須:Pythonによるデータ解析経験、C++での開発経験、アルゴリズム改善の実務経験尚可:設備点検分野の知識、レポート作成スキル稼働場所:東京都(週2回リモート可)その他:業種:公共・社会インフラ(設備点検支援)開始時期:12月から募集人数:1名 |
産業・エネルギー分野 データ分析/Python/Cognite SDK活用 - 12日前に公開
| 業務内容:CogniteSDKを使用して、データの取得・加工・更新を実施するデータ分析プロジェクトです。担当工程:データ取得、データ加工、データ更新の全工程を担当します。スキル:必須:Pythonでの開発経験(1年以上)、新しいことに前向きに取り組む姿勢、能動的に動けること尚可:Pandasを用いたデータ分析経験、MacOSの使用経験稼働場所:東京都(客先常駐)その他:産業・エネルギー分野のデータ分析案件、2026年1月開始、期間は2025年4月まで(延長の可能性あり) |
| 業務内容:-飲食業界向けDXシステムのアプリ開発-BigQueryを利用したデータ抽出・加工(SQL)-生成AI・AIエージェントを活用した機能実装-GoogleAppsScriptによる業務自動化ツール作成担当工程:アプリ開発、データ抽出・加工、AI機能実装、業務自動化ツール作成を担当スキル:必須:BigQueryによるデータ抽出/加工経験(SQL)、生成AIまたはAIエージェントの開発/連携経験、GASによる業務改善/自動化開発経験、PythonまたはWebアプリ開発の基礎知識尚可:Tableau/LookerStudio等BIツール利用経験、Djangoでの開発経験、データ分析基盤/ETLパイプライン構築経験、お客様折衝/要件整理経験稼働場所:東京都(ハイブリッド相談可)その他:業種:サービス業(飲食業向けDX)、プロジェクトはデータ活用とアプリ開発が統合された案件。BigQueryとAIとGASの組み合わせ経験が高く評価される。 |
保険業界 契約管理システム保守・運用/Java・MySQL・AWS対応 - 12日前に公開
| 業務内容:-アプリケーションの本番処理立ち合い(夜間作業含む)-データ分析および検証・納品-顧客からの問い合わせ対応-定型保守・運用作業(スケジュール調整、手順書作成、ジョブ起動・監視)担当工程:設計、実装、単体テスト、結合テスト、運用設計、運用スキル:必須:システム開発経験(設計・実装・単体テスト・結合テスト)、運用設計・運用経験、SE経験(あると尚可)尚可:Java、MySQL、Linuxシェルスクリプト、Asteria、AWS(ECS、RDS等)、VBA、JP1/AJS稼働場所:愛知県(名古屋エリア)その他:業種:保険業界(契約管理システム)不定期な時差勤務や夜間作業、突発作業あり |