新着案件をメール受信
いつでもキャンセルできます
検索キーワード:データ分析
検索結果:1907件
業務内容:エネルギー企業向けレポート作成支援場所:東京都開始時期:4月〜必要スキル:・PowerBI開発経験・要件定義経験・データ分析基盤構築経験担当工程:要件定義〜 |
業務内容:大手ECサイト運営企業のデータ移行チームにて、以下を担当・各種システムからBigQueryへのデータパイプラインの構築/運用・BigQuery上のデータウェアハウス、データマートの加工処理の構築/運用・既存システムから新システムへのデータ移行必要スキル:・GCP又はAWSでのデータ分析基盤の構築経験・BigQueryの利用経験・データパイプライン構築経験・Python開発経験歓迎スキル:・dbt利用経験・Dagster利用経験・CloudRunFunctions利用経験その他条件:・場所:東京都目黒区・稼働:フルリモート可・勤務時間:フレックス制(コアタイム11時〜16時)・単価:90万円〜120万円・PC:Mac貸与・面談:1回 |
業務内容:ECアプリケーションにおける機械学習モデルの開発・運用・レコメンドエンジンの開発・改善・データ分析基盤の構築・運用・機械学習モデルのパフォーマンス改善担当工程:要件定義/設計/開発/運用保守スキル:必須:・Python実務経験・機械学習モデルの開発経験・データ分析経験歓迎:・ECサイトでの開発経験・レコメンドエンジン開発経験・大規模データ処理経験就業形態:フルリモート単価:100万円以上その他:副業可 |
業務内容:リーガルテック企業におけるMLエンジニアとしての業務・機械学習モデルの設計、開発・AIシステムの実装および改善・データ分析、モデル評価スキル:・機械学習、深層学習の実務経験・Python、機械学習フレームワークの使用経験・自然言語処理の知識・AIモデルの実装経験勤務形態:フルリモート単価:100万円以上 |
業務内容:テレビ・デジタル広告の配信実績データや成果レポートをオンライン上で統合・可視化する統合マーケティングダッシュボードの機能追加。GoogleCloud(BigQuery/CloudComposer)、TableauServerを用いた構築。具体的な作業:・現行データおよび加工仕様の理解・ダッシュボード要件からのマートおよび加工処理の設計・CloudComposerでのデータパイプラインの設計・ダッシュボード設計担当への伝達/レビュー必要スキル:・CloudComposerでのデータパイプライン設計経験・BigQueryでのテーブル、マート設計経験・要件定義フェーズ経験もしくは顧客折衝経験歓迎スキル:・TableauServerとGoogleCloudでのデータ分析基盤構築経験環境:・期間:2025年3月~2025年4月(延長可能性あり)・勤務時間:9時~18時・勤務地:神奈川県横浜市西区(在宅勤務)・日本語でのコミュニケーション能力が必要・Web会議時はビジネスカジュアル単価:~100万円(スキル見合いで調整可能) |
業務内容:転職・採用支援サービスにおける以下の業務・論文の機械学習モデル・アルゴリズムの実装・評価・研究者の開発した機械学習モデル・アルゴリズムの実装・評価・データベース設計、プログラムコード最適化の調査・提案・研究者やAIエンジニアとの協働業務必要スキル:・計算機科学、情報科学、統計学などの修士号・論文の数式をPythonで実装する能力・Pythonを用いた機械学習モデル開発または業務データ分析経験・チームでの開発業務経験3年以上歓迎スキル:・推薦システムでのMLOps経験・データ活用視点でのDB設計・開発・運用経験・技術ブログなどによるドキュメント公開経験・生成AIの業務利用経験勤務地:リモートワーク(国内に限る)または東京都渋谷区就業時間:10:00-19:00服装:私服 |
業務内容:ヘルスケア業界向けSaaSおよびAIサービスに関する以下の開発業務・AIを活用した機械学習モデルの開発・ディープラーニングを用いた自然言語処理の新規開発・コールセンターチャットデータの分析アルゴリズム設計・LLM実装・チャットボット構築とマッチング機能開発・市場データを活用したレビューAI開発勤務地:東京都フルリモート可(週1出社)必要スキル:・データ分析・AIモデル構築・機械学習アルゴリズム開発・Python開発・以下いずれかの使用経験LangChain,LangGraph,Dify,vectorshift,Langfuse,CrewAI尚可スキル:・機械学習モデルを組み込んだアプリケーション開発経験・ChatGPTのプロンプティング経験・AWSLambda、DynamoDBを利用した開発経験・DBの設計経験・自動テストによる品質保証の経験開発環境:・インフラ:AWS・言語:Python・ライブラリ:Pandas,scikit-learn,PyTorch・コード管理:GitHub・コミュニケーション:Slack・ドキュメント:GoogleDrive、Notion・プロジェクト管理:JIRA就業時間:10:00~19:00 |
業務内容:・各種システムからのBigQueryへのデータパイプラインの構築・運用・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用・現行システムから新システムへのデータ移行・関連部署や関連チームとの連携業務勤務地:東京都目黒区基本リモート、必要時出社必要スキル:・GCP、AWSなどクラウドでのデータ分析基盤の構築・運用経験・BigQueryの利用経験(1年以上必須)・DWHへのデータパイプラインの運用経験・データベースに関する知識とSQLの利用経験・Python開発経験・チャットコミュニケーション(Slack)の実務経験歓迎スキル:・dbt利用経験・Dagster利用経験・CloudRunFunctions利用経験就業時間:10:00-19:00週4日勤務可 |
業務内容:インフラ研究開発案件におけるインフラ周りの新しい製品や技術を使用した機能や性能の検証業務-データ分析基盤監視(GCP,オンプレミス)-Prometheusを用いたmetrics収集やアラートの追加及び検証-Grafanaを利用したデータの可視化検証-k8s環境上でのアプリケーション追加及び監視検証-Helmchartを用いたデプロイ検証及び監視設定の追加検証-ダッシュボード開発支援場所:東京都(リモートメイン、週1回程度の出社)必要スキル:-Linuxサーバの構築経験尚可スキル:-コンテナ関連の知識(dockerやk8sを利用している経験)-ネットワークに関する知識-パブリッククラウドに関する知識-設計書、手順書などのドキュメント作成経験単価:50万円 |
業務内容:ダッシュボード構築支援、設計、構築、テスト必要スキル:・Python開発経験・データ分析経験案件形態:フルリモート(初回のみ東京都江東区での作業)単価:60万円 |
業務内容:・労務クラウドサービスに関するインバウンドマーケティング施策の企画/提案/実施/効果測定・WEB・展示会への出展等、プロモーション施策の企画立案・マーケティング施策全般の推進必要スキル:・BtoB商材のマーケティング施策の企画/実行経験・コミュニケーション能力・提案力/推進力歓迎スキル:・データ分析、MAツールの知見・展示会出展やウェビナーの知見・SEO対策に関する知見場所:東京都単価:80万円(スキル見合い)開始時期:2月~特記事項:・プロモーション方法の自由度が高く、主体的な企画提案/実行が可能・制作、クリエイティブ側は別メンバーが対応予定 |
業務内容:Pythonを使用したダッシュボード構築支援・設計、構築、テスト作業・データ分析・ダッシュボード開発場所:東京都(フルリモート/初日のみ豊洲出社、緊急時出社の可能性あり)地方在住可能単価:60万円前後期間:2025年3月から長期必要スキル:・Python開発経験・データ分析における設計、実装経験面談:1~2回(WEB面談)募集人数:4名 |
業務内容:-Go/Pythonを用いたサーバサイドの実装、テスト-APIの仕様策定とドキュメンテーション-GCP/AWS上での機能追加・改善-本番環境上での安定運用と障害対応必要スキル:-大規模アプリケーション開発における、アーキテクチャー選定・設計経験-アジャイル開発、スクラム開発経験-GoもしくはPythonの経験-GCP、AWSなどのクラウドインフラをプロダクションレベルで運用した経験-DNS,loadbalancer,firewall(securitygroup),routingtable,networkなどに関する知識-terraform,k8sの運用経験-Dockerフレンドリな環境での開発・運用経験-SQLに関する深い理解と充分な経験-複雑なデータ構造の設計・運用経験-集約関数以上のレベルのクエリを書ける力-RESTfulAPIの設計・開発歓迎スキル:-microservicesの開発・運用経験-パフォーマンス改善のためのボトルネックの特定と対策を実施した経験-データ分析、MLの知識、経験勤務時間:10:00~19:00(土日祝休み)開始時期:4月~長期作業場所:フルリモート単価:90万円程度面談:2回(Web)※1回になる可能性あり |
業務内容:テレビ・デジタル広告の配信実績データや成果レポートを統合・可視化する統合マーケティングダッシュボードの機能追加。GoogleCloud(BigQuery/CloudComposer)、TableauServerを用いたシステム構築。主な作業:-現行データおよび加工仕様の理解-ダッシュボード要件からのマートおよび加工処理の設計-CloudComposerでのデータパイプラインの設計-ダッシュボード設計担当への伝達/レビュー必須スキル:-CloudComposerでのデータパイプライン設計経験-BigQueryでのテーブル,マート設計経験-要件定義フェーズ経験もしくは顧客折衝経験歓迎スキル:-TableauServerとGoogleCloudでのデータ分析基盤構築経験環境:-フルリモート(初日出社の可能性有)-開始時期:2025年3月1日-単価:1,120,000円-勤務時間:9:00-18:00-服装:基本自由(Web会議時はビジネスカジュアル) |
業務内容:・社内データ活用促進・定着化のための戦略策定・部署間の連携を実現するための仕組み作り・データ活用の観点から顧客の課題を理解し戦略化・データアーキテクチャを描くための現行調査(既存システムが持つデータに着目した調査)必要スキル:・PMまたはPMO経験・Python、SQL、BIツールなどを活用したデータ分析の経験・論理的思考力およびコミュニケーション能力・クライアントへのヒアリングおよび提案資料作成の経験歓迎スキル:・データマネージメント経験・Snowflakeの経験単価:820,000円勤務地:東京都リモート可面談回数:2回 |
業務内容:・オンプレ上での開発・Pythonの開発・VMwareなど仮想基盤の作業・非マネージド環境で仮想化環境およびKubernetes基盤の設計必要スキル:・オンプレ上での開発経験・Pythonの開発経験・VMwareなど仮想基盤の経験・非マネージド環境で仮想化環境およびKubernetes基盤を設計経験歓迎スキル:・データ収集基盤、データ分析基盤などの基盤構築経験・Snowflakeなどのデータウェアハウスの設計経験・OSのセキュリティ設定経験・インフラのIaC化経験勤務形態:フルリモート単価:70万円 |
業務内容:・メールマガジンの配信業務・メール本文の改修作業・ベンダーと各所管との連絡・問い合わせ対応・各種データ分析(Googleアナリティクス)必要スキル:・HTML、CSSの業務経験・SQLの経験・コミュニケーション能力・サブリーダー以上のチーム管理経験・長期参画可能(1年以上)尚可スキル:・Googleアナリティクスの知見勤務条件:・勤務時間:9:00-18:00・場所:東京都・単価:60万円~65万円程度面談:2回(web又は対面) |
業務内容:クラウドサービスやアプリの開発支援。URLフィルタリングをクラウドサービスとして提供し、製品ログをBigQueryへ蓄積し、LookerStudioにてレポート分析するアプリの開発および保守。-Pythonによる開発作業、デバッグ-開発したアプリケーションをクラウドサービスへ配置する作業-基本設計以降の作業必要スキル:-Pythonによる開発作業、デバッグ経験-クラウドサービスへのアプリケーション配置経験-基本設計以降の経験歓迎スキル:-その他のコンパイル系言語(Java、C++など)-スクリプト言語(TypeScript、JavaScriptなど)の開発経験就業場所:東京都港区就業時間:10:00~19:00環境:-リモートワーク併用(入場後1~2週間は出社、その後週1~2日の出社)-PC貸与あり |
業務内容:・AIを用いた業務改善プロジェクトのプロジェクトマネジメント・企画提案・営業支援・要件整理・仕様設計・ドキュメント作成・プロジェクト管理、メンバーへの作業指示・地図上での人流予測、需要予測などを行うプロダクトの導入支援必要スキル:・AIを用いたプロダクト導入におけるPM経験・開発経験・Python経験・データ分析経験・顧客との仕様調整や折衝経験歓迎スキル:・需要予測SCMに関わった経験稼働条件:・週3日以上・フルリモート・即日開始面談:・2回(上位面談15分、本面談30分1回。場合により追加1回)単価:・110万円程度(相談可能) |
業務内容:・データ抽出/集計及びデータマート構築、可視化業務・データ分析における相談対応、プロジェクト推進・全社共通分析データマートの構築・データの可視化環境(ダッシュボード)設計・データ集計/抽出/レポート作成など、データを活用した課題解決業務担当工程:・データ抽出/集計業務・データマート構築のQuery構築業務・BIツール(Looker)の可視化環境構築業務必要スキル:・データ集計、前処理に関わるスキル、経験(SQL2年以上)・ビッグデータを使った分析の経験(実務経験2年以上)歓迎スキル:・WEB広告の関連のデータ抽出経験・BIツールの構築経験・課題仮説に基づき必要なデータを抽出し分析により自己見解を導ける方・分析用マートの設計~構築経験・BigQueryの使用経験開発環境:・SQL・GCP(BigQuery等)・JIRA、Confluence、GitHub、Slack・Looker(BIツール)・WindowsorMac場所:東京都(基本フルリモート)単価:65万円(スキル見合い)期間:3月~(長期)勤務時間:10:00~19:00 |
業務内容:・マーケティングツールBrazeを活用したマルチチャネル環境の構築・アプリ・LINE・メールを横断したマーケティング施策の実施・Brazeのキャンペーン・シナリオ設定・API連携を含むBrazeのデータ連携・セグメント設計・イベントトラッキングの設定・SQLを用いたデータ抽出・分析必要スキル:・Brazeの導入・設定経験(アプリ・LINE・メールのマルチチャネル施策)・Brazeのキャンペーン・シナリオ設定経験・API連携を含むBrazeのデータ連携経験・セグメント設計・イベントトラッキングの設定経験・SQLの基本的な理解(データ抽出・分析)・関係者との円滑なコミュニケーション能力勤務地:東京都千代田区単価:70万円 |
業務内容:・顧客データ・販売データ等のデータ分析支援・BigQueryを用いたデータ集計・Pythonを用いたデータ加工や各種分析・Flask等WEBフレームワークの開発勤務地:東京都渋谷区必要スキル:・BigQueryを用いたデータ集計経験・Pythonを用いたデータ加工や各種分析経験・Flask等WEBフレームワーク開発経験歓迎スキル:・フロントエンド開発経験・アパレル業務知識・PPTでの報告書作成経験案件概要:アパレル業界におけるデータ分析支援。業務ロジック構築のためのFlask/Python/SQLを活用した顧客データ・販売データ等のデータ分析業務を担当。 |
業務内容:経営ダッシュボードの要件定義、設計、構築、テストを実施-経営ダッシュボードの要件定義-経営ダッシュボードの設計-経営ダッシュボードの構築-経営ダッシュボードのテスト必須スキル:-Pythonでの開発経験-データ分析での設計・実装経験歓迎スキル:-AzureDataBricksでの業務経験-DWHの知見や開発経験-データアナリストの経験勤務地:リモート勤務単価:70万円〜75万円程度 |
業務内容:ネットワーク運用の高度化(自動化・可視化等)支援業務・Splunkを活用したデータ分析・可視化・Pythonを用いたシナリオ作成・ネットワーク運用の効率化推進・関係各所との調整勤務地:東京都品川区必要スキル:・Pythonを用いたプログラミング経験(3年以上、シナリオ作成が可能なレベル)・Splunkを使用したデータの加工・分析・可視化の経験・IP系ネットワークの基本知識(ルーティング、プロトコル、通信の基礎)・高いコミュニケーション能力歓迎スキル:・ネットワークエンジニアとしての実務経験(ネットワーク機器の運用・監視経験)就業条件:・勤務時間:9:00-17:30・勤務形態:ハイブリッド勤務(週3日出社・週2日リモート、着任後2ヶ月間は週4日出社)・開始時期:2025年4月単価:70万円まで(スキル見合い) |
業務内容:企業の商談データを取得する仕組み、および、取得したデータをQlikSenseでダッシュボードとして表示するために加工する処理をAWSにて実装。アジャイル開発方式で基本設計から結合テストまでを担当。データマート・DWH構築を主な担当領域とする。作業期間:2025年4月からクォーター毎に継続想定必須スキル:・SQLでの開発経験・DWH、データマート設計・構築経験・ETLツールの使用経験・データモデリングやデータベース設計の知識歓迎スキル:・AmazonRedshiftを使用した開発経験・AWSS3,LakeFormation,EventBridge,Glue,StepFunctionsを使用した開発経験・QlikSense開発経験・QlikCompose開発経験勤務形態:在宅勤務面談:2回(オンライン面談) |