新着案件をメール受信
いつでもキャンセルできます
検索キーワード:BigQuery
検索結果:777件
AIエンジニア/生成AI・LLM開発・RAG構成設計/フルリモート可 - 昨日14:52公開
| 業務内容:-自社データを用いたAIモデルの学習・改善-生成AI(ChatGPT・Claude・Gemini等)活用による業務効率化・プロダクト開発-大規模言語モデル(LLM)の活用、Fine‑tuning、RAG構成設計-AIPoCの技術検証およびレポーティング-Pythonによるデータ処理、API連携、プロトタイプ開発-GCP/AWS等クラウド環境でのAIモデル運用担当工程:AIモデルの学習・改善、PoC実施、プロトタイプ開発、クラウド環境でのデプロイ・運用スキル:必須:PythonによるAI/機械学習・データ処理開発経験、GCP/AWS等クラウド利用経験、Git/GitHubを用いたチーム開発経験、LLM(OpenAIAPI等)利用経験尚可:LangChain等を用いたRAGシステム設計・開発経験、Databricks・BigQuery・Snowflake等データ基盤利用経験、Docker/Kubernetesなどインフラ技術の理解、Tableau・Looker等BIツール連携経験、プロジェクトマネジメントまたはAI導入コンサルティング経験稼働場所:東京都(フルリモート可、必要に応じて出社あり)その他:業種:情報・通信・メディア領域、AI技術活用プロジェクト、開始時期:相談可能 |
| 業務内容:オンライン決済サービスを活用した招待制資金調達サービスのPoC開発支援。既存スキームとデータを活用し、新規サービスの検討・実装を行う。担当工程:要件検討、設計、実装、テスト、デプロイスキル:必須:GCP(IAM、Terraform、CloudRun、VertexAI)での開発経験、コンテナ利用経験、Linux環境での開発経験、Pythonでの実装経験尚可:DBTによるデータ変換経験、BigQuery(SQL)でのデータマート作成経験稼働場所:基本リモート(初回出社あり)その他:業種:金融・保険業(資金調達プラットフォーム)開始時期:2026年1月、期間:2026年1月~2026年3月、稼働率100%、PC貸与あり |
| 業務内容:-LLMを用いたエージェント構築-RAGにおけるRetriever実装-LLMOps整備(運用自動化含む)-CI/CDパイプライン構築および継続的デプロイ-エージェントを用いたAPI実装-データマートの設計・構築・運用-BIツールによるデータ可視化基盤の構築・運用-DeepLearningモデルのモデリングおよび前処理担当工程:設計、実装、テスト、デプロイ、運用スキル:必須:LangGraph、LlamaIndexによるエージェント構築経験、LangChain/Gradioによる開発経験、LLMファインチューニング・データパイプライン構築経験、LLM/AIモデルの学習・評価・運用経験尚可:PythonまたはNode.jsでの開発経験(3年以上)、OpenAI/Anthropic/Vertex等LLMサービスの理解、VectorDB(Pinecone/Chroma/Qdrant)の理解、API設計・開発経験(REST/GraphQL)、GitHubを用いたチーム開発経験、AWS/GCPでの開発・運用経験、生成AIを活用したシステム開発経験、DevOps知識(Docker、CI/CD、Vercel等)、ノーコード/ローコードツール(Zapier、Dify等)活用経験、BigQuery実務経験、Terraform等IaC経験、アジャイル開発経験稼働場所:フルリモー |
| 業務内容:顧客社内データを活用した可視化・高度分析・AI活用の推進。分析テーマの実行、手順書作成、セマンティックレイヤ設計、Snowflake等を用いたAI機能検証、組織調整および進捗管理を担当。担当工程:データ分析全般(EDA・可視化・予測モデル作成)、分析要件定義、手順書作成、セマンティックレイヤ設計、AI機能検証、プロジェクト推進・進捗管理、ステークホルダー調整。スキル:必須:データ分析実務経験5年以上(EDA、可視化、予測、文書化まで一貫対応)、PythonまたはRの実務経験尚可:Snowflake、BigQuery、Athena、Databricksのいずれかの実務経験、ステークホルダー調整経験、プロジェクト推進経験、メタデータ管理経験、AIエージェント・RAGPoC経験、データアーキテクチャ検討経験稼働場所:リモート勤務+東京都オフィス(週4出社)その他:業種:サービス業/情報・通信・メディア、開始時期:2026年1月、期間:2026年1月〜3月、募集人数:1名、外国籍:不可 |
SQLデータ抽出・加工・テーブル作成/在宅勤務可/短納期対応 - 4日前に公開
| 業務内容:-SQL(RedShift・BigQuery)を用いたデータ抽出および中間テーブル作成-抽出結果をCSV等の形式でアウトプットし、納品-Teamsによる進捗共有・コミュニケーション-必要に応じてExcelVBAで簡易ツールを作成担当工程:-データ抽出(SQLクエリ作成・実行)-中間テーブル作成・加工-納品資料作成(CSV等)-短納期(1〜2週間)での納品スキル:必須:SQL実務経験、コミュニケーション力、時間管理ができる尚可:SQLの高度な最適化・工夫経験、ExcelVBAによるツール作成経験稼働場所:東京都・在宅勤務可その他:業種:情報・通信・メディア開始時期:2026年1月~長期募集人数:1名対象年齢:45歳未満 |
| 業務内容:-AWSGlue(ApacheSpark)による分散処理・ETL開発-S3・LakeFormationを活用したデータガバナンス・セキュリティ設計-GCPBigQueryを用いたデータモデリング・クエリ最適化-AWSからGCPへのデータ連携フロー構築-Terraformによるマルチクラウド環境の自動化-Airflow等を用いたワークフロー管理とCI/CD整備-データ基盤全体のアーキテクチャ設計支援担当工程:設計、構築、運用、保守、CI/CDパイプライン構築、オーケストレーションスキル:必須:AWS(S3、IAM、VPC等)のインフラ構築・運用経験、GCP(BigQuery、IAM、ネットワーク設定)経験、BigQueryでの分析SQL(パーティショニング/クラスタリング)経験、AWSGlue(PySpark)でのETL開発・チューニング経験、TerraformによるIaC実践経験(マルチクラウド)尚可:大規模データ基盤の設計・運用経験、Airflow等のオーケストレーションツール使用経験、CI/CDパイプライン構築経験稼働場所:関東(リモート勤務相談可)その他:業種:情報・通信・メディア、データ基盤構築案件、開始時期は相談可能、長期参画歓迎 |
AIサポートツール導入/GCP環境でDX推進・フルリモート - 4日前に公開
| 業務内容:・GoogleGemini等のAIサポートツールの導入・設定・GCP環境下でのシステム開発・カスタマイズ・社内マーケティング・営業管理業務のデジタルトランスフォーメーション推進担当工程:要件定義、システム設計、実装、テスト、導入支援、運用サポートスキル:必須:GCP環境での開発経験(3年以上)、TensorFlowを用いたAI開発経験(3年以上)、画像認識・AI開発経験(3年以上)、Python開発経験、コミュニケーション能力尚可:BigQueryの業務使用経験、Geminiの導入経験稼働場所:フルリモート勤務可能(東京都在住者歓迎)その他:業種:電機・電子・精密機器、開始時期:2025年12月または2026年1月、募集人数:4名 |
機械学習エンジニア/テックリード/リモート中心 - 4日前に公開
| 業務内容:-ソーシャルコマースアプリ(数百万DAU規模)のレコメンドモデルの設計・実装・精度改善-ML基盤(Training/Serving/Monitoring)の設計・構築-特徴量エンジニアリング、パイプライン整備、MLOps構築-A/Bテスト・効果検証、事業指標(CTR/CVR/LTV)改善-技術的意思決定、要件定義、開発推進-VertexAI/BigQueryを活用した学習・推論パイプライン最適化-新規体験の仮説検証・プロダクト連携担当工程:要件定義、システム設計、実装、テスト、デプロイ、運用・監視、改善、プロジェクトリードスキル:必須:レコメンド領域での実務経験(2年以上)、MAU数十万〜数百万規模のサービスでのML開発経験、特徴量設計・レコメンドモデル実装(CF/MF/DNN/Transformer等)、MLOps構築・精度改善、BigQuery/VertexAI等のクラウドML基盤実務経験、事業指標改善ロードマップ策定・実行リード経験、チームまたはプロジェクトのリード経験尚可:EC・ソーシャルメディア領域でのレコメンド経験、リアルタイム推論環境の構築・運用経験、AWS/GCP等のクラウド基盤設計・データエンジニアリング経験、PdM・ビジネスサイドとの協働経験稼働場所:東京都(基本リモート)、月1回程度渋谷オフィス出社その他:業種:サービス業 |
TL/SQLエンジニア:東京都・リモート併用 - 4日前に公開
| 業務内容:-自社BIツールにおけるSQLによる複数テーブル結合・集計実装-TL業務として進捗管理、ユーザー窓口対応、トラブル調査・改修-JP1の基本操作・監視-システム障害対応およびユーザー問い合わせ対応担当工程:要件定義、設計、実装、テスト、運用保守スキル:必須:TL経験(進捗管理・ユーザー窓口対応・トラブル調査・改修)、SQLでの複雑クエリ作成・集計・テーブル結合、JP1の操作・監視、システム障害対応・保守経験尚可:Power BI等BIツールでの開発・保守、BigQuery等クラウド型DWHでの構築・保守稼働場所:東京都(週2~3回リモート併用)その他:業種:情報・通信・メディア開始時期:相談可能 |
データベース運用・システム保守・AWS移行・リース企業開発支援/統合案件 - 4日前に公開
| 業務内容:-SQLを用いた複数テーブル結合・集計・保守、JP1の基本操作、障害対応・ユーザ問い合わせ対応(BIツール運用)-.NET系システム、SQLServerの開発・保守・運用、Teamsによる問い合わせ対応(ID管理・eラーニング)-AWS環境(EKS、K8s)設計・構築、PostgreSQL/Valkey(Redis)HA設計・構築、AWS全般の設計・構築(クラウド移行)-Webシステム開発支援、ETLツール(DataSpider/Informatica)によるデータ処理、ExcelVBAによる業務自動化、AWS環境での開発支援(リース企業向け)担当工程:-要件定義、基本設計、詳細設計、実装、テスト、運用保守、障害対応、問い合わせ対応スキル:必須:SQL高度なクエリ作成、JP1操作、.NET開発経験、SQLServer運用、AWSEKS/K8s設計構築(2年以上)、PostgreSQL/ValkeyHA設計、ETLツール使用経験、ExcelVBA、Web開発経験、チームでの問い合わせ対応尚可:Power BI等BIツール経験、BigQuery等クラウドDWH経験、リーダー/サブリーダー経験、4G/5G通信システム経験、オンプレミスからクラウドへの移行経験稼働場所:千葉県(テレワーク併用)、東京都(在宅併用)、神奈川県(出社後テレワーク)、東京都(出社・リモート |
| 業務内容:-既存データベースからBigQueryへのデータ抽出基盤を活用し、ELT方式でのデータ変換・モデリングを実施-Dataform(またはdbt)でパイプラインを設計・実装し、Airflowにてジョブをオーケストレーション-Lookerを用いてダッシュボード作成、データ可視化を提供担当工程:要件定義、設計、実装、テスト、デプロイ、運用保守までの全工程スキル:必須:BigQueryでのデータ変換・モデリング経験、ELT実務経験、データ品質(正確性・粒度・完全性・網羅性・新鮮さ・一貫性・一意性・安定性)に関する実務経験尚可:Dataformまたはdbtの実務経験、Lookerの使用経験、JavaScriptの実務経験稼働場所:フルリモート(初回出社あり)、東京都在住可その他:業種:医療・ヘルスケア(メガベンチャー)/プロジェクト開始時期:12月または1月から(長期)/募集人数:1名 |
| 業務内容:-BigQuery・CDP基盤の構築・データ集約-金融系データ(アプリ・Web・LINE等)を活用したマーケティング施策支援-クライアントへのデータ利活用伴走(パーソナライズ施策実行、KGI/KPI設定、PDCA)-データ可視化・レポート作成(Tableau、PowerBI、LookerStudio)担当工程:-基盤設計・構築-データパイプライン実装-データ分析・レポート作成-運用・改善支援-クライアントへのコンサルティングスキル:必須:-BigQueryを用いたデータ分析・プロジェクト推進経験-SQL/Pythonによるデータ処理スクリプト開発経験-データ活用による課題抽出・改善策立案経験-クライアント課題解決に向けたコミュニケーション能力-データ可視化(Tableau、PowerBI、LookerStudio)スキル尚可:-LookerStudioでのダッシュボード構築実績-アプリのプッシュレコメンド実装経験-KGI/KPIの検討・策定経験-コンサルティング経験-ビッグデータ系システム(ETL/DWH/データパイプライン)開発・運用経験-AWS、GCP、Azure等クラウド上でのデータ開発経験-大規模データのパフォーマンスチューニング経験-E資格相当の知見稼働場所:東京都(リモートメイン、週1程度出社)その他:業種:金融業界、開始時期:20 |
| 業務内容:-データレイク・ETL基盤の設計・構築・運用-AWSGlue(ApacheSpark)を用いた分散処理・ETL開発-S3・LakeFormationによるデータ管理・セキュリティ設計-BigQueryを活用したDWH環境整備・データモデリング・クエリ最適化-AWS↔GCP間のデータ連携パイプラインの構築・最適化-TerraformによるマルチクラウドIaC実装・環境差分管理・自動化-Airflow等を用いたワークフロー管理とCI/CDパイプライン整備-データ品質テストの自動化担当工程:-要件定義、設計、実装、テスト、運用・保守スキル:必須:-AWS(S3・IAM・VPC等)でのインフラ構築・運用経験-GCP(特にBigQuery・IAM・ネットワーク設定)での構築経験-BigQueryを用いた分析SQL実務経験(パーティショニング・クラスタリング含む)-AWSGlue(PySpark)でのETL開発・パフォーマンスチューニング経験-TerraformによるIaC実践(マルチクラウドまたは複数環境)尚可:-LookerStudio等によるBIダッシュボード構築-Airflow/MWAAでのジョブ管理経験-DeltaLake・Iceberg・Hudi等を活用したデータレイクハウス設計-Kinesis/Firehose/Pub/Sub等 |
AWS/GCPハイブリッド基盤データエンジニア/長期プロジェクト - 5日前に公開
| 業務内容:-AWSGlue(ApacheSpark)を用いた分散処理・ETL開発-S3/LakeFormationによるデータレイク管理・セキュリティ設計-BigQueryを活用したデータウェアハウス構築、データモデリング、クエリ最適化-AWSとGCP間のデータ連携パイプラインの設計・最適化-Terraformによるマルチクラウド環境のIaC管理・自動化-Airflow等を用いたワークフロー管理、CI/CDパイプライン整備-データ品質テストの自動化担当工程:要件定義、基盤設計、ETL実装、パフォーマンスチューニング、運用保守、CI/CD構築スキル:必須:AWS(S3、IAM、VPC等)でのインフラ構築・運用経験、GCP(特にBigQuery)での構築・IAM・ネットワーク設定経験、BigQueryでの分析SQL実務経験、AWSGlue(PySpark)でのETL開発・パフォーマンスチューニング、TerraformでのマルチクラウドIaC実践経験尚可:LookerStudio等によるBIダッシュボード構築、Airflow/MWAAでのジョブ管理、DeltaLake/Iceberg/Hudiを用いたデータレイクハウス設計、Kinesis/Firehose/Pub/Sub等のストリーミング処理経験、Python/Go/Javaでのツール開発稼働場 |
Python/ML Lead:ソーシャルECアプリのレコメンド基盤リード - 5日前に公開
| 業務内容:-レコメンド向け機械学習基盤(Training/Serving/Monitoring)の設計・構築-レコメンド・ランキング・パーソナライズ等のモデル開発-開発ロードマップ策定、技術選定、推進-特徴量設計・前処理・MLOps・実運用・改善-実験管理・運用フロー自動化-リアルタイム推論の性能改善-関連プロダクトの品質改善・技術課題対応担当工程:要件定義、アーキテクチャ設計、実装、テスト、デプロイ、運用・監視、継続的改善スキル:必須:-レコメンド領域での実務経験(2年以上)-MAU数十万規模以上のサービスでのML開発経験-特徴量エンジニアリング、前処理、モデル実装、MLOps、モニタリングの一連経験-レコメンド手法(CF、MF、DNN、Transformer、Two‑Tower、Wide&Deep、GNN等)の実装経験-ビジネス指標(CTR、CVR、LTV等)改善のロードマップ策定・実行経験-プロジェクトまたはチームのリード経験-Python、GCP、Terraform、BigQuery等の実務経験尚可:-EC・SNS領域でのレコメンド開発経験-リアルタイム推論環境の構築経験-データエンジニアリング・インフラ知識(AWS、GCP、Databricks等)-ビジネス・PdMとの協働経験稼働場所:フルリモート(東京都)その他:業種:情報・通信・メディア開始時期:202 |
| 業務内容:-AIエージェント化およびセマンティックレイヤの設計・実装-データカタログ・メタデータの整備-Snowflake、BigQuery、AmazonAthena、Databricks、OracleAnalyticsなどのデータ分析基盤の運用・最適化-データ分析全工程(目的設計、EDA、可視化、要因分析、予測、レポーティング、ドキュメント化)-ステークホルダー調整およびプロジェクトリード担当工程:要件定義、設計、実装、テスト、運用、プロジェクトマネジメント全般スキル:必須:-データ分析の自走経験(目的設計、EDA、可視化、要因分析、予測、レポーティング、ドキュメント化)-Snowflake、BigQuery、AmazonAthena、Databricks、OracleAnalytics等の実務経験-データベース設計・SQLクエリ操作の知識-ステークホルダー調整力(データ調達・優先度策定・進捗/リスク管理)-プロジェクトを単独またはリーダーとして推進できる実務経験尚可:-セマンティックモデル/メタデータ整備の実務経験-セマンティックレイヤ設計・チューニング経験-AIエージェント/RAGのPoC推進経験-データ活用アーキテクチャ比較検討経験(Snowflake、Databricks、Microsoft系等)稼働場所:東京都(リモート併用または常駐は未定) |
AWS上AIエージェント構築/ウェブ制作向け自動化支援 - 6日前に公開
| 業務内容:-AWS上でAIエージェントの設計・実装-作業依頼書作成支援、提案書評価、実装後の定量評価の自動化担当工程:要件定義、設計、実装、テスト、デプロイ、運用支援スキル:必須:AIエージェントまたはAIアプリ作成経験、BigQueryまたはGemini構築経験尚可:ウェブサイト制作経験、CMSに関する知見稼働場所:東京都、基本リモート(キックオフや機材受け渡し時に一部オフラインあり)その他:業種:情報・通信・メディア(ウェブ制作関連)、開始時期:即日開始可能、募集人数:2〜5名 |
データ分析・生成AI PoC推進/5年以上経験/東京都常駐 - 6日前に公開
| 業務内容:-経営状況の可視化(STEP1)-高度なデータ分析による要因分析・予測(STEP2)-生成AIを活用した示唆・リコメンドとプロセス自動化(STEP3)-分析テーマの実行と手順書作成-セマンティックレイヤ/カタログ設計・運用-Snowflake等を用いたAIエージェント機能の検討・検証・結果取りまとめ-関連組織との調整、優先度策定、進捗・リスク管理-必要に応じた顧客打ち合わせ担当工程:データ要件定義、EDA、可視化、要因分析、予測モデル構築、レポート作成、AIPoC実装・検証、ドキュメント作成、ステークホルダー調整スキル:必須:データ分析実務経験5年以上(目的設計、EDA、可視化、要因分析、予測、レポーティング)、PythonまたはRの実務経験、手順書・ドキュメント作成能力尚可:Snowflake、BigQuery、AmazonAthena、Databricks、OracleAnalytics等の基盤実務経験、ステークホルダー調整力、プロジェクトリーダーまたはメンバー指揮経験、セマンティックモデル/メタデータ整備・カタログ運用経験、AIエージェント/RAGのPoC推進経験、データ活用アーキテクチャ比較検討経験稼働場所:東京都(基本出社、慣れれば一部リモート可)その他:業種:情報・通信・メディア、開始時期:2026年1月、期間:2026年1月~3月(延長の可能性 |
Pythonエンジニア/SaaSログ分析基盤構築・運用(リモート+東京) - 6日前に公開
| 業務内容:-Pythonで実装されたAPIへの機能追加・調整-ログの運用・モニタリング、コスト・負荷・エラーの監視-ログデータの詳細分析、定期レポーティング、UX改善提案-論文・特許・検索結果等の企業・個人情報の調査・統合・出力形式変換担当工程:-要件定義、設計、実装、テスト、運用保守スキル:必須:Python、SQL、非構造化データ(日本語含む)の調査・分析・統合経験、SaaSにおけるログ基盤の構築・運用経験尚可:RedShift・Athena・BigQuery等のクラウドデータウェアハウス経験、Flask・FastAPIでのWebAPI実装経験、自然言語処理・機械学習・情報検索関連業務経験、大規模データ(GB以上)の並列・逐次処理実装経験、冪等性を考慮したデータ統合基盤の設計・構築経験稼働場所:基本リモート、初回1〜2日および月1回の出社が必要。勤務地は東京(後楽園エリア)その他:業種:情報・通信・メディア(SaaSプロダクト運用・分析)開始時期:2026年1月頃を予定 |
| 業務内容:-ETL/DWH基盤の更改、バッチ処理の刷新・追加開発-Snowflake、Dataspider、BigQuery等を用いたデータ処理-AWSGlue、StepFunctions、EventBridgeを活用した処理実装-Pythonによる開発担当工程:-バッチ処理の設計、実装、テストスキル:必須:ETL/DWHバッチ系システム開発経験2年以上(Snowflake、Dataspider、Informatica、ASTERIA、BigQueryいずれか)、AWSGlue/StepFunctions/EventBridgeの利用経験、Python開発経験尚可:MaterializedViewを利用したSQL作成経験稼働場所:東京都/フルリモート(初回のみPC受取)その他:情報・通信・メディア業界のカード会社向けデータ連携基盤更改プロジェクト、チーム人数3名、面談は2回実施 |
AI・データ分析プロジェクト/豊洲常駐/Python/R必須 - 6日前に公開
| 業務内容:-分析テーマの実行と手順書作成-セマンティックレイヤ/カタログの設計・運用-Snowflake等を活用したAIエージェント機能の検討・検証・結果取りまとめ-関連組織の調整、優先度策定、進捗・リスク管理-必要に応じた顧客打ち合わせ(オンサイト)担当工程:分析計画策定、実装・検証、成果物取りまとめ、ステークホルダー調整スキル:必須:データ分析実務経験5年以上(目的設計、EDA、可視化、要因分析、予測、レポーティング)・PythonまたはRの実務経験・オンサイトでのデータ取得が可能な勤務形態尚可:Snowflake、BigQuery、AmazonAthena、Databricks、OracleAnalytics等の分析基盤経験・ステークホルダー調整力(データ調達・優先度策定・進捗・リスク管理)・プロジェクトリーダーまたはメンバー指揮経験・セマンティックモデル・メタデータ整備、カタログ運用、命名規則・依存関係設計経験・AIエージェント/RAGのPoC推進経験・データ活用アーキテクチャ比較検討経験(Snowflake、Databricks、MicrosoftFabric等)稼働場所:東京都(豊洲)常駐その他:業種:情報・通信・メディア対象年齢:40代まで開始時期等の詳細は別途確認 |
| 業務内容:-製造業システムからのデータ抽出-BI向けデータモデルの設計・開発(テーブル・View)-Looker(ML)およびBigQueryを用いた実装担当工程:要件定義、基本設計、詳細設計、開発、テスト全工程スキル:必須:データベースのテーブルやView等のデータモデル設計・開発経験尚可:データモデリング経験、製造業でのプロジェクト参画経験、Looker・LookerML・BigQuery使用経験、GCPでの開発経験稼働場所:大阪府内の拠点で出社、テレワーク環境整備後はリモート勤務可(週1回以上の出社を想定)その他:業種:自動車・輸送機器等の製造業、開始時期:即日~相談、長期プロジェクト、アジャイル開発、土曜出社の可能性あり(代替平日休み)、コミュニケーション能力が重要 |
SQL実務経験者募集/データ分析・集計SEクラス/東京都内在宅可 - 6日前に公開
| 業務内容:-蓄積データをSQLで抽出し、要件に応じたオーダーメイドの集計を実施-中間テーブル作成および複数回のSQL実行-抽出結果を加工し、CSV等で納品-使用DB:RedShift、BigQuery(SQLのみ)-必要に応じてExcelVBAで簡易ツール作成-コミュニケーションはTeamsで実施担当工程:-要件確認、SQL設計・実装、データ加工、納品スキル:必須:SQL実務経験、業務に必要な勤怠管理、メンバーとのコミュニケーション力尚可:SQLを工夫して効果的なアウトプットを実現できること、ExcelVBAでの簡易ツール作成経験稼働場所:東京都内(在宅勤務可)その他:業種:情報・通信・メディア開始時期:2026年1月から長期予定、短納期(1〜2週間)での集計作業が中心勤務時間:9:30〜17:30(昼休み12:00〜13:00) |
AI・データ分析プロジェクト/豊洲常駐/Python/R必須 - 6日前に公開
| 業務内容:-分析テーマの実行と手順書作成-セマンティックレイヤ/カタログの設計・運用-Snowflake等を活用したAIエージェント機能の検討・検証・結果取りまとめ-関連組織との調整、優先度策定、進捗・リスク管理-必要に応じた顧客打ち合わせ(オンサイト)担当工程:要件定義・分析、設計、実装・検証、運用スキル:必須:-データ分析実務経験5年以上(目的設計、EDA、可視化、要因分析、予測、レポーティング)-PythonまたはRの実務経験-オンサイトでのデータ取得が可能な勤務尚可:-Snowflake、BigQuery、AmazonAthena、Databricks、OracleAnalytics等の分析基盤実務経験-ステークホルダー調整力(データ調達・優先度策定・進捗・リスク管理)-プロジェクトリーダーまたはメンバー指揮経験-セマンティックモデル/メタデータ整備、カタログ運用、命名規則・依存関係設計経験-AIエージェント/RAGのPoC推進経験(ChatGPT等)-データ活用アーキテクチャ比較検討経験(Snowflake、Databricks、MicrosoftFabric等)稼働場所:東京都(常駐)その他:業種:情報・通信・メディア対象年齢:40代までステークホルダー調整やプロジェクトリーダーシップが求められる |
エネルギー需要予測AI PoC構築/データサイエンティスト/フルリモート - 7日前に公開
| 業務内容:-基礎分析-予測モデルの要件定義-外部データのクローリング・スクレイピング-分析用データの前処理・特徴量作成-予測モデル構築・検証-検証結果報告書作成-データサイエンティスト業務全般担当工程:PoC段階の要件定義からデータ取得、前処理、モデル構築、検証、報告書作成までを担当。スキル:必須:Python実務経験3年以上、SQL実務経験3年以上、回帰・時系列アルゴリズムを用いた数値予測モデル構築経験、本番環境への予測処理パイプライン実装経験、外部データのクローリング・スクレイピング実装経験尚可:需要予測モデル構築経験、GCPまたはBigQueryでの分析・開発経験稼働場所:フルリモート(全国対応)その他:業種:電力・ガス・水道(エネルギー分野)/プロジェクト開始は2025年12月、期間は約2.5か月/副業で50%稼働可 |