ビッグデータ案件について
ビッグデータ案件のフェーズ
システム開発やWebサービス開発の案件が多数となります。他にはデータ分析の案件と合わせての募集などもあります。
ビッグデータが採用されている業種/業界
ビッグデータを保有している企業が低コスト化を目指しているのがメインです。住設、テレビ・広告、ゲーム系など幅広い業界が採用しています。特に大手企業はビッグデータを保有している傾向が強いので、キャリアアップを望めるでしょう。
ビッグデータが採用される理由
近年はあらゆる電子機器によりログの保有ができるようになりました。場合によっては一人の人間がどのような生活をしているのか、どのような嗜好をしているのかもログやデータにより分析が可能です。企業として顧客のデータを分析して、より良いサービスを展開していくことは今後の成長を考える上でも重要になります。特に大手企業が持つビッグデータは想像を超えるデータ群となるので、活用次第では大きい利益を獲得できる可能性もあるでしょう。
ビッグデータ案件の今後
ビッグデータ案件は今後も増えていく傾向となっています。主な理由としては電子機器の普及、インターネットの成熟、SNSなどの個人が情報を拡散できる環境が挙げられます。今まではデータを保有するのも難しかったですが、技術の進歩により保有することが可能になってきました。保有している情報を上手に活用するために、多くの企業が注目することでしょう。
ビッグデータの技術を活かす
ビッグデータは主にPython言語の経験がある人を採用する傾向が強いです。Pythonには分析するのに適しているライブラリがあるためです。次に企業が求めているのがJava経験者です。システム開発案件の主流とも呼べるJavaは根強い人気があり、まだまだ現役として活躍できることでしょう。ビッグデータ案件を経験することにより、幅広い業界からの受注を受けることが可能になるでしょう。特にビッグデータは最近出てきたトレンドでもあるため、多くの企業が求めています。
ビッグデータ案件の単価
ビッグデータ案件の平均単価はおよそ70万円/月がメインとなります。経験やスキルにより上下することはありますが参考にするといいでしょう。また、中には100万円を超える単価も複数見られるため、キャリアやスキルがマッチすれば応募してみるといいでしょう。
システム開発やWebサービス開発の案件が多数となります。他にはデータ分析の案件と合わせての募集などもあります。
ビッグデータが採用されている業種/業界
ビッグデータを保有している企業が低コスト化を目指しているのがメインです。住設、テレビ・広告、ゲーム系など幅広い業界が採用しています。特に大手企業はビッグデータを保有している傾向が強いので、キャリアアップを望めるでしょう。
ビッグデータが採用される理由
近年はあらゆる電子機器によりログの保有ができるようになりました。場合によっては一人の人間がどのような生活をしているのか、どのような嗜好をしているのかもログやデータにより分析が可能です。企業として顧客のデータを分析して、より良いサービスを展開していくことは今後の成長を考える上でも重要になります。特に大手企業が持つビッグデータは想像を超えるデータ群となるので、活用次第では大きい利益を獲得できる可能性もあるでしょう。
ビッグデータ案件の今後
ビッグデータ案件は今後も増えていく傾向となっています。主な理由としては電子機器の普及、インターネットの成熟、SNSなどの個人が情報を拡散できる環境が挙げられます。今まではデータを保有するのも難しかったですが、技術の進歩により保有することが可能になってきました。保有している情報を上手に活用するために、多くの企業が注目することでしょう。
ビッグデータの技術を活かす
ビッグデータは主にPython言語の経験がある人を採用する傾向が強いです。Pythonには分析するのに適しているライブラリがあるためです。次に企業が求めているのがJava経験者です。システム開発案件の主流とも呼べるJavaは根強い人気があり、まだまだ現役として活躍できることでしょう。ビッグデータ案件を経験することにより、幅広い業界からの受注を受けることが可能になるでしょう。特にビッグデータは最近出てきたトレンドでもあるため、多くの企業が求めています。
ビッグデータ案件の単価
ビッグデータ案件の平均単価はおよそ70万円/月がメインとなります。経験やスキルにより上下することはありますが参考にするといいでしょう。また、中には100万円を超える単価も複数見られるため、キャリアやスキルがマッチすれば応募してみるといいでしょう。
新着案件をメール受信
いつでもキャンセルできます
検索キーワード:ビッグデータ
検索結果:268件
データアナリスト/SQL実務経験1年以上/東京都常駐 - 5日前に公開
| 業務内容:・分析設計およびダッシュボード設計・データの加工・分析・分析結果に基づく施策提案・アドホック分析の実施・各種BIツールの開発サポート・サービス課題のヒアリングに基づく分析・可視化設計・プロデューサー・プランナー等との連携による施策PDCA推進担当工程:要件定義・設計・実装・運用スキル:必須:SQLによるデータ抽出・分析(実務経験1年以上)尚可:Python・Rを使用した加工/集計/分析/可視化経験、デジタル領域でのコンサルティング経験、BigQuery・Redshift・Hadoop等を用いたビッグデータ分析経験、確率統計の知識・統計解析・モデリング経験、ゲーム・エンタメ領域の知識・経験稼働場所:東京都(常駐、リモート併用は相談可能)その他:業種:情報・通信・メディア(ゲーム・ソリューションサービス)開始時期:相談外国籍不可 |
ビッグデータ分析基盤構築/金融データ活用支援/リモート中心 - 6日前に公開
| 業務内容:-BigQuery・Dataflow等を用いたデータ分析基盤の構築・データ集約-集約データのマーケティング活用(アプリ・Web・LINE等)-クライアントへのデータ利活用支援(パーソナライズ施策、KGI/KPI設計、PDCA)-データ可視化(Tableau、Power BI、Looker Studio)担当工程:要件定義、設計、実装、テスト、運用支援、データ活用コンサルティングスキル:必須:BigQueryを用いたデータ分析・構築経験、SQL/Pythonによるデータ処理スクリプト開発経験、データ活用による課題抽出・改善策立案経験、クライアントと協働するコミュニケーション能力、データ可視化(ドキュメント作成)スキル尚可:Looker Studio等でのダッシュボード構築実績、アプリのプッシュレコメンド実装経験、KGI/KPIの検討・策定スキル、コンサルティング経験、ETL/DWH/パイプライン開発・運用経験、AWS/GCP/Azureでのデータ開発経験、大規模データのパフォーマンスチューニング経験、E資格または同等の知見稼働場所:東京都(リモートメイン、週1回程度出社)その他:業種:金融、開始時期:2025年11月、プロジェクト期間:2025年11月~、使用クラウド:GCP・AWS・Azure、可視化ツール:Tableau・Power BI・Looker Studio |
銀行向けMCIF Tableau化/SQLデータ調査・可視化/在宅勤務可 - 6日前に公開
| 業務内容:SQLによるデータ調査・整理、TableauDesktopを用いた可視化・分析を実施し、銀行業務の効率化を支援します。担当工程:データ抽出・要件定義・レポート作成・可視化実装スキル:必須:SQLでのデータ調査・抽出経験、調査結果の資料化スキル尚可:TableauDesktop使用経験稼働場所:東京都(週2在宅勤務可)その他:金融業界(銀行)向けのビッグデータ基盤(OCEAN)活用プロジェクトです。開始時期は相談に応じます。 |
データエンジニア/AWS基盤構築・運用・ゲーム事業向け/渋谷常駐 - 10日前に公開
| 業務内容:-ゲーム事業で蓄積されたビッグデータを活用した分析基盤の構築・開発・運用-ログ・DBデータのELT処理システムの開発・運用-大規模データベースの構築・管理-社内BIツール向けデータ集計バッチの開発・運用-データ分析者への技術サポート担当工程:-設計、実装、テスト、運用保守全般スキル:必須:データベースの構築・管理・運用経験、Linux上でのシェルスクリプトまたはPythonによる開発・運用経験、Gitによるソースコード管理、AWS等クラウドサービス上でのシステム運用経験尚可:SnowflakeやBigQuery等のデータウェアハウス構築・管理経験、データパイプラインの構築・開発・運用経験、サーバーレスアーキテクチャでのシステム構築経験、SQL・Python・シェルスクリプトを用いたバッチ開発経験、データ分析業務経験、Terraform等のIaCツール利用経験、dbt・Fivetran・AWSGlue等のETLツール利用経験稼働場所:東京都渋谷の常駐勤務その他:業種:情報・通信・メディア(ゲーム事業)/即日開始可能/外国籍不可 |
ゲーム・ソリューション向けデータアナリスト/SQL必須/六本木常駐 - 10日前に公開
| 業務内容:-分析設計およびダッシュボード設計-データの加工・分析-分析結果に基づく施策提案-アドホック分析の実施-各種BIツールの開発サポート-サービス課題のヒアリングに基づく分析・可視化設計-プロデューサー・プランナー等との連携による施策PDCA推進担当工程:要件定義、データ抽出、分析・可視化、施策提案、PDCAサイクルの実行スキル:必須:SQLによるデータ抽出・分析の実務経験(1年以上)尚可:PythonまたはRを用いたデータ加工・集計・分析・可視化、BigQuery・Redshift・Hadoop等を用いたビッグデータ分析、確率統計の知識および統計解析・モデリング経験、デジタル領域でのコンサルティング経験、ゲーム・エンタメ領域の知識稼働場所:東京都六本木(常駐)※リモート併用は相談可能その他:業種:情報・通信・メディア、ゲーム・エンタメ領域開始時期:即日外国籍不可 |
データ分析基盤構築支援/東京在住リモート/資料作成 - 10日前に公開
| 業務内容:-データ分析基盤の環境構築支援-報告資料(Excel・PowerPoint)作成担当工程:-環境設計・構築-テスト・運用支援-資料作成・報告スキル:必須:新技術の調査・習得能力、Excel・PowerPointによる資料作成、高いコミュニケーション能力尚可:Tableau使用経験、ビッグデータSaaSサービス利用経験、環境構築・設計・テスト・運用に関する知識、Snowflake経験(SQL理解で可)稼働場所:東京在住者限定の基本リモート勤務(必要に応じて東京オフィスでの作業あり)その他:業種:情報・通信・メディア、データ分析基盤構築支援プロジェクト開始時期:2026年1月開始、2026年3月終了(成果次第で延長検討)勤務時間:9:00〜18:00人数:1名 |
ビッグデータ分析基盤構築支援/金融業界向けデータ活用・AIモデル開発 - 12日前に公開
| 業務内容:-BigQuery、Redshift、AzureSynapse等を用いたデータベース・CDP基盤の構築-データ集約・マーケティング活用(アプリ、Web、LINE等)-クライアントへのデータ利活用伴走支援(パーソナライズ施策、KGI/KPI検討、PDCA)-金融系(クレジットカード・銀行等)向けデータ分析・AIモデル開発・可視化担当工程:-基盤設計・構築-データパイプライン実装-データ分析・可視化支援-KPI策定・改善策提案スキル:必須:-BigQueryを用いたデータ分析・プロジェクトリード経験-SQL/Pythonによるデータ処理スクリプト開発経験-データ活用による課題抽出・改善策立案経験-クライアント課題解決のためのコミュニケーション能力(PM連携)-データ可視化(ドキュメント作成)スキル尚可:-LookerStudio等でのダッシュボード構築実績-アプリのプッシュレコメンド実装経験-KGI/KPIの検討・策定経験-コンサルティング経験-ビッグデータ系システム開発・運用(ETL/DWH/データパイプライン)経験-AWS、GCP、Azureでのデータ開発経験-大規模データのパフォーマンスチューニング経験-E資格等の知見稼働場所:東京都(リモートメイン、週1程度出社)その他:業種:金融・保険業(銀行・クレジットカード等)開始時期:2025年11月頃から長期 |
| 業務内容:-iOSアプリ向けのRESTfulAPIの設計・実装-大規模データを処理するデータパイプラインの構築-DNS、ロードバランサ、セキュリティグループ等のインフラ構築・運用-Terraformを用いたIaCの実装担当工程:要件定義、設計、実装、テスト、デプロイ、運用・保守スキル:必須:-Python3によるRESTfulAPI開発経験-AWSLambda等を用いたサーバーレス開発・運用経験-Gitを用いたチーム開発・コードレビュー経験-MySQL等RDBの設計・高度なクエリ作成経験-xUnit系テストフレームワークでのテスト実装経験-AWSのネットワーク・セキュリティ関連(DNS、LB、SecurityGroup、Routing)設計・運用経験-Terraformによるインフラ構築・運用経験-パフォーマンスチューニング経験-OOP・FunctionalProgrammingの理解-アルゴリズム実装力-Docker環境での開発・運用経験-CI/CDを用いた自動デプロイフロー構築経験尚可:-データ分析・機械学習に関する知識・経験-スクラム開発またはチーム開発経験-ビッグデータ開発経験稼働場所:リモート(原則出社なし)その他:業種:情報・通信・メディア就業時間:10:00〜19:00(土日祝休み)英語資料の読解が求められる可能性あり |
SaaSプロダクト堅牢化 SRE/Python・GCP活用フルリモート - 13日前に公開
| 業務内容:-既存ソフトウェア全体の把握と影響範囲を考慮した設計-要件・仕様・タスク・マイルストーンの定義-ソフトウェア開発、テスト自動化、ドキュメント作成-リリース準備、テスト調整、ロールアウト、リリース後のモニタリング・運用-プロセス改善点の特定と実施担当工程:要件定義・設計・実装・テスト自動化・リリース・運用・改善スキル:必須:ソフトウェアエンジニアリング経験5年以上、Gitでのソースコード管理、Pythonでの2年以上の開発経験、チーム開発経験、技術選定・アーキテクチャ設計経験、GCP等パブリッククラウド利用経験、ビッグデータを用いたデータ集計・分析・モニタリング実装経験、優れた文書・口頭コミュニケーション能力、率先して行動できる姿勢尚可:コンピュータサイエンス・AI・機械学習等の経験、ソフトウェアエンジニアリング経験10年以上、複雑問題に対するソリューション設計・開発経験、IaC実務経験、消費者決済または銀行決済分野の経験、SRE業務経験稼働場所:フルリモート(PC貸与あり、必要に応じて出社の可能性)その他:業種:情報・通信・メディア、SaaSプロダクト開発、リモート勤務可 |
建設向けSaaS AIエンジニア/フルリモート・フルフレックス - 14日前に公開
| 業務内容:-機械学習環境およびデータベースの構築-ビッグデータ解析、時系列・テキストデータの分析-UXボトルネックの分析-BtoBSaaSプロダクトへのAI実装支援担当工程:機械学習環境構築、データベース設計・構築、AIモデル開発・実装、分析結果のプロダクト反映スキル:必須:機械学習ライブラリ(XGBoost、LightGBM、CatBoost)使用経験、AI/機械学習モデル開発経験、ディープラーニング実務経験、Python・R・SQLの実務経験、多変量解析・統計仮説に関する知見または経験、分析結果のプロダクト実装経験尚可:データ収集・可視化・分析の一連プロセス経験、機械学習モデルをWebサービス・アプリケーションに実装した経験、回帰分析、主成分分析、因子分析、クラスタリング等の統計手法の理解と活用稼働場所:フルリモート(東京都)その他:サービス業(情報・通信・メディア)向けの建設SaaSプロダクト、2025年11月開始予定、フルフレックス勤務 |
テレビ局向けデータエンジニア募集/GCP・SQL活用・リモート勤務 - 18日前に公開
| 業務内容:-DMPを中心としたビッグデータシステムの構築、保守、開発-データの加工・管理業務担当工程:要件定義、設計、実装、テスト、運用保守スキル:必須:データエンジニアとしての実務経験、SQLによるDBプログラミング、GoogleCloudPlatform(データエンジニア領域)での実務経験尚可:アプリケーションエンジニア経験、Snowflakeの利用経験、データクリーンルーム構築経験稼働場所:基本リモート(週2回程度出社)その他:業種:情報・通信・メディア(テレビ局向けサービス)プロジェクト期間:長期就業形態:フレックスタイム制開始時期:2025年12月開始予定 |
銀行向けMCIFのTableau化/データ調査・可視化/週2在宅 - 18日前に公開
| 業務内容:-ビッグデータ基盤(OCEAN)上のデータをSQLで調査し、結果を資料化-TableauDesktopを用いて調査結果を可視化し、MCIF業務の効率化・高度化を支援担当工程:-データ抽出/調査-資料作成-Tableauによるダッシュボード作成スキル:必須:SQLによるデータ調査・資料化尚可:TableauDesktopによる可視化経験稼働場所:東京都(在宅勤務:週2)その他:業種:金融・保険業(銀行)業務内容:MCIF業務の可視化・効率化開始時期:要相談 |
| 業務内容:-iOSアプリから呼び出されるRESTfulAPIの設計・実装-大規模データを処理するデータパイプラインの構築-AWS上でのサーバーレス開発(Lambda等)およびインフラ構築(DNS、ロードバランサ、セキュリティグループ等)-Terraformによるインフラコード管理-Dockerコンテナを用いた開発環境構築とCI/CDパイプラインの実装-パフォーマンスチューニングとテスト自動化(xUnit系)担当工程:要件定義、設計、実装、テスト、デプロイ、運用保守までの全工程を担当スキル:必須:Python3によるRESTfulAPI開発経験、AWSサーバーレス(Lambda)運用経験、Gitを用いたチーム開発、MySQL等RDBの設計・高度なクエリ作成、AWSアーキテクチャ設計・実装、Terraform運用、Docker環境での開発・運用、CI/CDを用いた自動デプロイ、OOP・FunctionalProgrammingの理解、アルゴリズム実装力尚可:データ分析・機械学習の知識・経験、スクラム等アジャイル開発経験、ビッグデータ開発経験稼働場所:原則リモート勤務(東京駅最寄りでの出社は必要に応じて)その他:業種:サービス業(情報・通信・メディア)/大手事業会社の海外スタートアップ支援プロジェクト開始時期:2025年11月または12月開始の長期案件就業時間:10:00〜 |
リモート併用/プロジェクトマネージャー/ビッグデータシステム開発 - 19日前に公開
| 業務内容:-ビジネスサイドとの折衝およびシステム要件への落とし込み-要求整理、要件定義、設計からベンダーへの開発指示・管理・マネジメント-要件定義書・仕様書・設計書等のドキュメント作成およびレビュー担当工程:要件定義、基本設計、詳細設計、ベンダー管理・指示スキル:必須:メディア業界での業務経験、ビジネスサイドとの折衝から要件定義・設計までの実務経験、要件定義書・仕様書等の作成・レビュー経験、PMとしてベンダーへの開発指示・マネジメント経験、Web開発の実務経験(ハンズオン)、自立的に動けること尚可:プロジェクトマネージャー資格、ITサービスマネージャー資格、情報処理安全確保支援士資格稼働場所:東京都(リモート併用:出社・リモート半々)その他:業種:情報・通信・メディア、ビッグデータシステム開発プロジェクト、開始時期:11月以降、稼働期間:1人月、フレックス勤務可 |
建設向けSaaS AIエンジニア募集/フルリモート・フルフレックス - 19日前に公開
| 業務内容:-機械学習環境・データベース構築-ビッグデータ解析-時系列・テキストデータ分析-UXボトルネック分析-SaaSプロダクトへのAI実装環境構築担当工程:機械学習モデルの設計・開発、データベース設計・構築、データ収集・可視化・分析、AI機能のプロダクト実装スキル:必須:機械学習ライブラリ(XGBoost、LightGBM、CatBoost)使用経験、AI/機械学習モデル開発経験、ディープラーニング経験、Python・R・SQL実務経験、多変量解析・統計仮説の知見、分析結果のプロダクト実装経験、回帰分析・主成分分析・因子分析・クラスタリングの理解と活用尚可:特になし稼働場所:東京都(千代田区)を拠点としたフルリモート、フルフレックス勤務その他:業種:サービス業(建設向けSaaS)/開始時期:11月開始(即日入場可能者優先)/期間:1人月単位/PCはWindows環境を貸与 |
| 業務内容:-既存ソフトウェアの設計・影響分析-要件定義、仕様策定、タスク・マイルストーン設定-Pythonによる実装、テスト自動化、ドキュメント作成-リリース準備、モニタリング、運用対応-プロセス改善提案、チームディスカッションへの参加担当工程:要件定義、設計、実装、テスト、リリース、運用スキル:必須:ソフトウェアエンジニアリング経験5年以上、Python開発経験2年以上、Gitによるソースコード管理、技術選定・アーキテクチャ設計実務、GCP等のクラウド実装経験、ビッグデータを用いた集計・分析実装経験、チーム開発およびコミュニケーション能力尚可:AI・機械学習・コンピュータサイエンス関連経験、エンジニアリング経験10年以上、IaC(InfrastructureasCode)実務経験、決済・金融関連業務経験、SRE経験稼働場所:フルリモート(PC受取や必要時のみ出社)その他:業種:情報・通信・メディア(SaaS)/開始時期:相談可能/長期安定稼働を想定 |
SRE/Python/GCPフルリモート/フィンテックSaaS開発 - 21日前に公開
| 業務内容:-既存ソフトウェア全体の把握と影響範囲を考慮した設計-要件・仕様・タスク・マイルストーンの定義-ソフトウェア開発、テスト自動化、ドキュメント作成-リリース準備・テスト調整・ロールアウト・リリース後のモニタリング・運用-プロセス改善点の特定と実施担当工程:システム設計、開発、テスト自動化、リリース、運用全般スキル:必須:ソフトウェアエンジニアリング経験5年以上、Gitによるソースコード管理、Python実務経験2年以上、チーム開発経験、技術選定・アーキテクチャ設計実務経験、GCP等パブリッククラウド利用経験、ビッグデータを用いた集計・分析・モニタリング実装経験、優れた文書・口頭コミュニケーション能力、自発的に行動できる姿勢尚可:コンピュータサイエンス・AI・機械学習の知識・経験、ソフトウェアエンジニアリング経験10年以上、複雑問題に対するソリューション設計・開発実績、IaC実務経験、消費者決済・銀行決済分野の経験、SRE業務経験稼働場所:東京都(フルリモート、必要に応じて出社あり)その他:業種:フィンテック、開始時期:2026年1月、PC貸与あり、稼働率100% |
| 業務内容:-iOSアプリ向けRESTfulAPIの設計・開発-大規模データ処理用データパイプラインの構築-AWS上でのインフラ構築・運用(DNS、ロードバランサ、セキュリティグループ、ルーティング、Terraform等)-Docker環境での開発およびCI/CDデプロイフローの実装担当工程:-要件定義、設計、実装、テスト、デプロイ、運用保守スキル:必須:-Python3およびその他LL言語でのRESTfulAPI設計・開発経験-サーバーレスアーキテクチャ(AWSLambda等)での開発・運用経験-AWS全般の設計・実装経験、Terraformを用いたIaC運用経験-MySQL等RDBの設計・高度なクエリ作成経験-xUnit系テストフレームワークによるテスト実装経験-Dockerコンテナでの開発・運用経験-CI/CDツールを用いた自動デプロイ経験-OOP、FunctionalProgrammingの理解-アルゴリズム実装力およびパフォーマンスチューニング経験-Gitを用いたコードレビュー・チーム開発経験尚可:-データ分析・機械学習の知識・実務経験-スクラムやアジャイル開発の経験-ビッグデータ処理や分散処理基盤の経験稼働場所:リモート勤務(原則出社なし、必要時は東京都内で出社可)その他:業種:情報・通信・メディア(新規事業開発)開始時期:即日または相談勤務時間:平日10: |
建設分野データ活用/機械学習環境構築・DB設計:フルリモート - 21日前に公開
| 業務内容:-建設分野の蓄積データを活用した機械学習環境の構築-SQLによるデータベース設計・実装-時系列・テキストデータのビッグデータ解析-UXボトルネックの分析-BtoBSaaSプロダクトへのAI実装支援担当工程:要件定義、設計、実装、評価、運用支援スキル:必須:PythonまたはRでのデータ分析経験、SQLによるデータベース操作経験、XGBoost・LightGBM・CatBoost等の機械学習ライブラリ活用経験、機械学習モデル開発経験、多変量解析・統計的仮説検証の知見、ディープラーニングの実装経験尚可:なし稼働場所:フルリモート(フルフレックスタイム制)その他:業種:建設業界向けデータ活用プロジェクト、開始時期は相談、PC貸与(Windows)あり |
データアナリスト/事業・サイト分析/代官山勤務 - 21日前に公開
| 業務内容:-事業戦略のための分析(重要指標の策定・可視化、横断的データ分析、課題抽出、施策実施・効果測定)-サイト改善のための分析(KPI策定・可視化、行動ログ・事業データを用いた課題抽出、改善施策実施、効果シミュレーション)担当工程:データ抽出・加工、指標策定・可視化、課題抽出、施策実施、効果測定、レポート作成スキル:必須:GoogleCloud(BigQuery)実務経験、SQL(BigQuery)によるデータ加工・集計、統計解析の知識、データ分析を活用した事業・サイト課題解決経験尚可:機械学習を用いた業務経験、ビッグデータ活用によるレコメンド機能の設計・開発・運用経験、DWH・DataPipeline・ELT等の設計・開発・運用経験、データ可視化の設計・開発・運用経験稼働場所:東京都新宿区代官山近辺(出社週3日以上を想定、リモート併用可)その他:業種:情報・通信・メディア領域の事業分析、勤務形態:週5勤務、開始時期は相談可能 |
海外事業向けバックエンドエンジニア募集/Python・AWS中心/リモート - 25日前に公開
| 業務内容:-iOSアプリ向けのRESTfulAPI設計・開発-大規模データパイプラインの構築-AWSを用いたサーバーレス環境(Lambda等)の設計・運用-Docker・CI/CDを活用したデプロイフローの整備担当工程:要件定義、設計、実装、テスト、デプロイ、運用・保守スキル:必須:Python3によるRESTfulAPI開発経験、AWS(Lambda・APIGateway・RDS等)でのサーバーレス開発・運用経験、Gitによるチーム開発・コードレビュー、MySQL等RDBの設計・高度なクエリ作成、xUnit系テストフレームワークでのテスト実装、AWSアーキテクチャ設計(DNS、ロードバランサ、SecurityGroup等)、Terraformによるインフラ自動化、パフォーマンスチューニング、OOP・関数型プログラミングの理解、アルゴリズム実装力、Docker環境での開発・運用、CI/CDを用いた自動デプロイ経験尚可:データ分析・機械学習の知識・経験、スクラムやチーム開発の経験、ビッグデータ開発経験稼働場所:東京都リモート(原則出社なし)その他:業種:サービス業/情報・通信・メディア、開始時期:相談、勤務時間:フレックスタイム制、土日祝休み、募集人数:1名、年齢上限:35歳、外国籍不可 |
大規模総合ECサイト開発/フルリモート/Java・Spring使用 - 25日前に公開
| 業務内容:-要件定義、基本設計・詳細設計-結合テスト・統合テスト-Java/Springを用いたWebシステム開発-Oracle、Redis、MariaDB等のDB設計・運用担当工程:要件定義、設計、実装、テスト全般スキル:必須:Java開発経験5年以上、テックリード経験(数名規模可)尚可:スマートフォン/タブレットアプリ開発経験、クラウド・ビッグデータ関連プロジェクト経験稼働場所:フルリモート(VPN接続、PCは自己準備)その他:業種:EC・オンライン小売/随時開始/長期(1年以上)/年齢条件:40代まで |
建設向けSaaS AIエンジニア募集/フルリモート・フルフレックス - 26日前に公開
| 業務内容:-建設分野の蓄積データを用いた機械学習環境・データベース構築-ビッグデータ・時系列・テキストデータの解析-UXボトルネック分析-SaaSプロダクト(BtoB)におけるAI実装環境の構築担当工程:-データ収集・前処理-機械学習モデル開発・評価-データベース設計・構築-分析結果の可視化・レポート作成スキル:必須:PythonまたはRによるデータ分析経験、SQL活用経験、XGBoost・LightGBM・CatBoost等の機械学習ライブラリ使用経験、AI/機械学習モデル開発経験、多変量解析・統計的仮説検証の知識、回帰分析・主成分分析・因子分析・クラスタリング等の実務活用尚可:AWSまたはAzure等のクラウド基盤経験、GitHub等のバージョン管理ツール利用経験稼働場所:フルリモート(東京都)その他:業種:サービス業/情報・通信・メディア、建設向けSaaSプロダクトのAI機能強化開始時期:2025年11月(即日参画可)稼働期間:1人月勤務形態:フルフレックス |
ビッグデータシステム開発PM/放送局・広告代理店向け/リモート併用(東京) - 27日前に公開
| 業務内容:-ビジネスサイドとの折衝およびシステム要件への落とし込み-要求整理、要件定義、設計からベンダーへの開発指示・管理・マネジメント-要件定義書・仕様書・設計書等のドキュメント作成およびレビュー担当工程:要件定義・設計・ベンダー管理・プロジェクトマネジメントスキル:必須:メディア業界での業務経験・ビジネスサイド折衝・要求整理・要件定義・設計実務・要件定義書・仕様書作成・レビュー経験・PMとしてベンダー管理経験・Web開発実務経験・自立的に業務遂行できること尚可:プロジェクトマネージャー資格・ITサービスマネージャー資格・情報処理安全確保支援士資格稼働場所:東京都(リモート併用可能)その他:業種:情報・通信・メディア、放送・広告関連、ビッグデータ活用システム開発・開始時期:即日・稼働期間:1人月・年齢上限:55歳まで・服装自由 |
データエンジニア募集/Google Cloud活用データ基盤構築・レコメンド開発 - 27日前に公開
| 業務内容:-データパイプラインの構築(BigQueryへのデータ集約、他システムへの配信)-データマートの作成・自動化-Redashを用いたデータ可視化(GKE上)-集約データを活用したレコメンド機能の開発および運用改善担当工程:-実装-運用改善スキル:必須:GoogleCloud上での実務経験(ビッグデータ活用、DWH/DataPipeline/ELT等)、Python、SQL(1年以上)尚可:画像処理、自然言語処理、機械学習の経験、リアルタイム分析基盤構築経験、Go言語の経験稼働場所:東京都(週3回以上出社)その他:業種:情報・通信・メディア勤務形態:週5日勤務 |