新着案件をメール受信
いつでもキャンセルできます
検索キーワード:データマイニング
検索結果:8件
情報・通信・メディアAIプロジェクトリーダー/企画~運用/フルリモート(東京) - 13日前に公開
業務内容:-目的・課題定義、ROI確認等の企画フェーズ-システム・モデル設計、モデル構築、ビジネス評価等の開発フェーズ-ビジネス導入、保守・運用の運用フェーズ-データマイニング、機械学習、生成AIを活用したAIシステムの構築・評価担当工程:企画、設計、開発、運用スキル:必須:リーダー経験(PM経験が望ましい)、上流工程経験、英語の読み書き(翻訳ツール使用前提)、理系大学院卒が望ましい尚可:基礎的数学・統計知識、機械学習・生成AIの基礎知識、Pythonプログラミング、SQL・データベース知識稼働場所:東京都、フルリモート勤務(拠点は東京都)その他:情報・通信・メディア業界の大手インターネット企業のプロジェクト、週5日勤務、自己PC持ち込み、私服可、年齢上限45歳、外国籍可(日本語ネイティブレベル必須) |
業務内容:-企画フェーズ:目的・課題定義、実現可能性・ROI確認-開発フェーズ:システム・モデル設計、モデル構築、ビジネス評価-運用フェーズ:ビジネス導入、保守・運用-データマイニング、機械学習、生成AIを用いたシステム開発全般担当工程:企画・要件定義、設計、実装・テスト、導入・運用までの上流から下流までを一貫して担当スキル:必須:リーダー経験(できればPM経験)、上流工程が得意、英語の読み書き(翻訳ツール使用前提)、理系思考力(理系大学院卒が望ましい)尚可:基礎的数学・統計知識、機械学習・生成AIの基礎知識、Pythonによるプログラミングスキル、SQL・データベースに関する知識稼働場所:フルリモート(拠点は東京、年1回程度出社)その他:業種:情報・通信・メディア業界の大手インターネット企業開始時期:9月開始(前倒し相談可)勤務時間:9:00〜17:30、週5日勤務年齢上限:45歳まで、外国籍可(日本語ネイティブレベル必須)服装:私服、PCは自己準備プロジェクト期間:長期(継続的に業務改善を推進) |
業務内容:-AI・MLを活用したシステムの企画・要件定義・ROI評価-データマイニング・機械学習・生成AIモデルの設計・構築-ビジネス導入・保守・運用までの一貫担当担当工程:企画、要件定義、設計、開発、テスト、運用・保守スキル:必須:リーダー経験(可能であればPM経験)・上流工程(企画・設計)での実務経験・英語の読み書き(翻訳ツール使用前提)・理系大学院修了者が望ましい尚可:基礎的な数学・統計知識・機械学習・生成AIに関する基礎知識・Pythonプログラミング・SQL・データベース知識稼働場所:東京(フルリモート)※年1回程度の出社ありその他:業種:情報・通信・メディア・長期プロジェクト(9月開始)・就業時間は9:00〜17:30・週5日勤務・私服可・PCは自己所有・外国籍可(日本語ネイティブレベル必須)・個人事業主可・募集人数1名 |
業務内容:生保会社でのデータ移行・データマイニング対応。シェルスクリプトの作成。担当工程:データ移行、データマイニングスキル:必須:Shellスクリプト作成経験、データ移行経験尚可:VB.net開発経験勤務地:東京都 |
業務内容:金融・保険業系の企業でのデータ移行・データマイニング対応業務。シェルスクリプトの作成が含まれる。担当工程:データ移行、データマイニング、シェルスクリプト作成スキル:-VB.netの開発経験-データ移行の経験-Shellスクリプト作成経験その他情報:-勤務地:東京都-開始時期:即日または6月か7月から-単価:60万円 |
業務内容:データ移行・データマイニング対応でのシェルスクリプトの作成を担当。金融系システムにおけるデータ処理業務。場所:東京都江東区単価:60万円必要スキル:・VB.net開発経験3年以上・詳細設計以降の経験・シェルスクリプト作成スキル・データマイニングの知識・経験面談:WEB面談1回 |
業務内容:転職・採用支援サービスにおける機械学習モデルの開発・運用-Python、機械学習ライブラリを使った機械学習モデル開発-データクレンジング、前処理、特徴量エンジニアリング-モデルの検証、デプロイ、運用-モデルの精度向上やモデル改善のための機能開発-リファクタリングやテストコードの開発-機械学習システムのパフォーマンスチューニング必要スキル:-Python、機械学習に関する理解と実務経験-データ分析、データマイニングの知識-SQLでのデータ操作経験歓迎スキル:-自然言語処理や画像認識などの経験-AWS、GCPなどのクラウドサービスの利用経験-CI/CDやコンテナ技術の理解勤務地:東京都港区 |
業務内容:・求人サイトに蓄積されたデータを分析するためのデータパイプラインの構築・運用・データの前処理や加工・高速でスケーラブルなデータパイプライン設計・クラウドベースのBigDataプラットフォーム設計・構築必要スキル:・PythonまたはScalaを使ったデータ処理の実務経験3年以上・Spark、Hadoop、Kafkaなどのビッグデータ処理ツールの経験・AWS、GCPなどのクラウドサービスの利用経験歓迎スキル:・機械学習やデータマイニングの知識・データウェアハウスやデータレイクの設計・構築経験勤務地:リモートワーク可能 |
- 1