1 - 30件/全54件
・デジタルマーケティング会社が提供するDMPプロダクトの開発作業に携わっていただきます。 ・Ruby on Railsを用いたアプリケーションと、 分析および媒体連携用のデータ基盤(GCP)の開発運用をご担当いただきます。 ・具体的には、下記のような作業を想定しております。 - 管理画面の開発、保守、運用 - 分析データ基盤の開発、保守、運用
案件の必須スキル
・クラウドデータ基盤を用いた分析、ETLジョブの開発経験 ・Ruby on RailsやDjango等を用いたWebサービスの開発経験 ・Git、GitHubを利用したチーム開発経験
動画プラットフォーム事業にて取得しているデータの分析を担当して頂きます。日々蓄積される膨大なデータを用いて集計や統計分析を行いサービス改善、課題解決を行っていただきます。 <お任せする予定の作業> ・KPI集計や統計分析、ダッシュボードの構築 ・分析を実現するためのデータ収集や段取り ・企画との連携、サービスの開発支援・施策支援 ・他部署からの集計依頼や分析相談 Python
案件の必須スキル
・PythonやRなどを利用したデータ分析の経験:5年以上 ・SQLを用いたデータ分析やデータ集計の経験
アドネットワーク領域において、ソリューション事業を多数展開しております。 今回その中でもハイブリッド型のDMPシステムの開発をRubyをメインとしその他Reactを用いて開発支援を行っていただきます。 Ruby
案件の必須スキル
・Ruby on Railsを使ったWebアプリケーションの開発経験:3年以上 ・Hive等の分散処理フレームワークを用いた開発経験 ・Git、GitHub を利用したチーム開発経験 ・Reactを使ったWebアプリケーションの開発経験 ・AWSを用いた開発経験
データ分析プラットフォーム (Databricks) の運用、AWS 利用コスト最適化に関わる業務を実施していただきます。 ▼想定される主な業務 ・利用実態 (既存のリソースの稼働状況、設定されている権限) の調査 ・各種設計ポリシーを元に AWS リソース全般の設計・実装 ・運用ドキュメント (GitHub, Google Workspace) の増補、改善 ・Redash, Databricks を使用したダッシュボードの実装 ・AWS コスト削減方針検討・ライフサイクルなどの実装 AWS
案件の必須スキル
・SQLに関する基本的な知識 ・AWSを利用した開発・運用経験:3年以上 ・Pythonを利用したアプリケーション開発経験:1年ほど
メディアプランニングシステム、アクセス解析ツールなどのマーケティングソリューションやPC/スマートフォン向け広告配信システムなど、 お客様の既存事業、新規事業を支えるシステムの設計・開発・運用を担当します。 広告サービス広告主向け、媒体向けに分かれており、プロダクトは20個以上あります。 (広告プランニング・広告業務サポート、第三者配信プラットフォーム/クリエイティブの最適化、、リッチ広告配信、ターゲティング広告、データベース広告配信etc) 要望、経験に合わせ、下記5つのいずれかを担当します。 ・広告配信プラットフォーム ・インターネット広告プランニングシステム ・新規プロダクト作成 ・ビックデータ解析(DNP) ・インフラ Java,Ruby,C#.NET,サーバ(インフラ)
案件の必須スキル
※担当プロダクトにより要件が異なります (広告配信プラットフォーム) ・C、Javaの経験 (インターネット広告プランニングシステム) ・.NET(FW2.0~4.0)、SQLserver2008以降~の経験 (新規プロダクト作成) ・Ruby2系、Rails4系の経験 (ビックデータ解析) ・Hadoop、Hiveの経験 (インフラ) ・NW、Sever(RedHat、Windows)、MySQLのいずれかに精通している方
某有名TVアプリにおけるユーザ行動データの設計と管理全般に携わっていただきます。 作業内容 ・施策や機能追加における分析要件のヒアリング ・ログ設計とテーブル設計 ・クライアントエンジニアへログ仕様説明 ・GoogleTagManagerの設定 ・行動ログの発火状況や品質管理 Python
案件の必須スキル
・Pythonでの開発経験:3年以上 ・ログ設計、データ設計経験 ・SQLでデータ抽出(hive,BigQueryなど)
【業務内容】 大手テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属していただきます。 ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。 インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。 アドテクやクラウド、データ収集/分析関連の最新技術を学び、経験することができ、かつテレビ局特有の高アクセス環境で技術的なチャレンジができる現場です。
案件の必須スキル
【必須スキル】 ・SQLを使ったDBプログラミングの開発経験 ・Python、PHP、JAVA、Golangのいずれかの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・AirflowやDigDagなどのワークフロー管理ツールの利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属して頂きます。 【具体的業務】 ・ビッグデータ基盤システムの構築、開発、保守 ・収集データを基にした社内外に向けた分析ツールの開発 ・機会学習システム(社外製品)を内製化して再構築 【開発環境】 ・言語:PHP(Laravel)、Python ・インフラ:AWS ・情報共有ツール:Backlog、Slack、 Googleハングアウト ・その他:Hadoopエコシステム、HDFS、MapReduce、 Hive、Pig、Presto、Memcached、Redis、 Ansible、Jenkins、Chef、Docker
案件の必須スキル
【必須】 ・Python、PHPのいずれかの開発経験 ・SQLを使ったDBプログラミングの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
◆主な仕事内容 ・社内外のユーザーが利用するデータ分析基盤の構築・運用 ・データ利用のガバナンス維持など、現行の運用時のFit&Gap及び、 Gapの解決に向けての方法 ・Databricks / Snowflake/ AWSなどの設定、棚卸しなどのシステム管理業務 ・データ利用の要件や条件などを遵守した社内外のシステムとの連携 ・新技術の評価、バージョンUPの検証 ・負荷やコストとパフォーマンスを意識したシステム構築 ※ただ開発をするだけでなく、プロジェクト内での意思決定に加わり、 具体的なアクションを決めるところからご参加いただけます。 要件定義から基盤の設計、一部実際の開発支援やデータの運用など、 プロジェクトの核となる部分をメンバーと一緒に実施していただきます。 ※フルリモート可 Python
案件の必須スキル
・JavaやPythonをはじめとした開発経験:3年以上 ・データベース、SQLを使用した開発・運用 ・Linuxでの業務または個人開発経験
案件概要:開発グループ_SQLエンジニア募集 業務内容: CRM施策に関連するデータ加工/抽出/分析を行う業務 メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成 L事前データ調査やユーザーリストの作成 事業KPI設計 成果レポート用クエリ作成 BIツール移行対応 施策ヒアリング等の要件定義 開発環境: PC:Mac(JIS/US 選択可) ミドルウェア:MySQL、PostgreSQL 管理ツール:Slack、Jira、Confluence、Git その他:BigQuery、LookerStudio、Redash、Hive 業務環境: テクノロジー部全体:31名 開発グループメンバー:20名 配属先チーム:リーダー1名、メンバー7名 男女比:10:0(部全体では8割男性) 平均年齢:32歳 勤務時間:10:00~19:00 場所:六本木一丁目(基本リモート) ※地方相談可 ※初日はガイダンスの為、出社いただきます 備考: ・アダルトコンテンツ:一部あり ・弊社より20名ほど参画中のエンドクライアントです 外国籍:応相談 ビジネスレベル、日本在住の方のみ
案件の必須スキル
・データ分析・加工の実務経験:2年以上 ・大量データを扱った経験 Lテーブル数:数十個〜、カラム数:数十個〜、処理対象レコード数:数千万レコード〜 L※大量データ最低規模のイメージとなります
インターネット広告のログデータなどを用いたデータ分析業務、およびそのデータ分析のためのツール開発などを行っていただきます。 Python
案件の必須スキル
・Pythonでの開発経験:3年以上 ・データベース、SQLを使用した開発・運用経験 ・クライアントもしくは社内のビジネス職に対して社内のエンジニアと連携しながらプロジェクトを推進した経験
〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、近年スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中でスポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python
案件の必須スキル
・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中で、スポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python
案件の必須スキル
・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
国内トップシェアのマーケティングプラットフォームにおける新規機能または既存機能の改善開発 主にデータを可視化、分析するためのレポーティングシステムの開発に携わります(バックエンド・フロントエンド両方あり) 要件定義~設計~開発~テストまで全工程に携わることが可能 個人のスキルと経験により上流工程(企画と直接折衷)・エンジニアリーダーも可能 PMの元で、小さめのチーム(3~5人程度)で2~4か月のサイクルでプロジェクトを企画し、スピード感を持って開発を進めています Java
案件の必須スキル
・Webシステム開発または保守経験:3年以上 ・PHPまたはJavaでの開発経験 ・Linux使用経験 ・コードレビュー経験 ・要件仕様に基づくテスト設計・実施経験
国内で人気の高いグルメコンテンツが 通信キャリアの公式コンテンツに向けて提供されることとなりました。 それに伴い、 設計~開発テストまで一貫してご対応いただきます。 [開発環境] PHP (Zend予定)/AWS / Amazon Linux / Ubuntu / Hive / Presto / Redis / chef / docker / OpenTSDB / nginx / node.js / scala / Treasure Data / github / MySQL / Java / Objective-C / HTML5 / CSS3 / JavaScript / Sass / Gulp iOS,Scala,PHP,HTML5/CSS3,JavaScript,AWS
案件の必須スキル
・PHPでの開発経験3年以上 ・基本設計以降のご経験
大手ECサイトやオンラインゲーム等、複数コンテンツを持っております企業様での 自社開発レコメンドエンジンの開発案件です。 現在、社内の各種事業に順次展開をしておりますが、 よりスピーディーに展開を進めるため、開発エンジニアを募集しております。 主な作業内容は下記を想定しております。 ・node.js でのAPI設計・開発・テスト ・Hiveクエリの作成・テスト・チューニング ・Spark プログラムの設計・開発・テスト ・Jenkinsジョブの作成 ・Ansible設定ファイルの作成 など Node.js
案件の必須スキル
・Java・MySQLを用いたアプリケーション開発に3年以上従事し、基本設計〜テストまでを単独で行える事 ・Hadoopの技術をキャッチアップし、ビッグデータ関連の技術習得に意欲的に取り組める方
データ分析を通じた新サービス開発のために、 PMの指示の元で、Hadoop上にShellもしくはJavaでの実装をご担当頂きます。 ※設計、実装、テストは企画者/分析者/開発リーダーとコミュニケーションしながら進める形になります。 Java
案件の必須スキル
・Shellスクリプト設計・作成・運用ご経験 ・SQL/プログラミングのご経験
国内トップシェアのマーケティングプラットフォームにおいて、 新規機能または既存機能の改善開発に携わっていただきます。 主にデータを可視化、分析するためのレポーティングシステムの開発で、 バックエンド・フロントエンド両方の作業がございます。 要件定義~設計~開発~テストまで全工程に携わることが可能で、 これまでのご経験により、より上流工程(企画と直接折衷)もご担当いただくケースがございます。 <チーム体制> 人数は3~5人程度で、PMの元で2~4か月のサイクルでプロジェクトを企画し、 スピード感を持って開発を進めている現場です。 エンジニアリーダーとしてご活躍いただくことも可能です。 Java,Python,AWS
案件の必須スキル
5年以上のWebシステム開発または保守経験(PHPまたはJava必須) 5年以上のLinux使用経験 第三者としてのコードレビュー経験 要件仕様に基づくテスト設計・実施経験
・新しいソフトウェアやアプリケーションの機能的および非機能的要件を決定するため、他の専門家と協力する ・ツールや方法論を使用して、望まれる製品の機能とユーザーインターフェースの表現を作成する ・システム統合と実現可能性に注意を払いながら、高レベルの製品仕様を開発する ・適切な技術やワークフローからコーディング規準まで、開発のすべての側面を定義する ・すべての概念とガイドラインを開発チームに成功裏に伝達する ・初期設計との一貫性を確保するため、開発チームの進捗を監督する ・アーキテクチャレビューと技術サポート活動を通じて、開発者やエンジニアに技術的指導とコーチングを提供する ・ソフトウェアが品質、セキュリティ、変更可能性、拡張性などのすべての要件を満たしていることを確認する ・立ち上げ前に最終製品を承認する ■募集背景 増員募集 ※働き方: 週3日以上の出社 -東京(二子玉川駅)もしくは大阪(渡辺橋駅)の拠点に出社していただく想定です。
案件の必須スキル
・ソリューションまたは技術アーキテクチャの経験を含む、ソフトウェア開発での7年以上の経験 ・様々な言語でのソフトウェア開発とコーディングの経験(特にJavaの経験があればなおいい) ・ソフトウェアおよびアプリケーション設計とアーキテクチャに関する優れた知識 ・UMLおよび他のモデリング手法に関する優れた知識 ・API設計と実装に関する優れた知識 ・ソフトウェア品質保証原則の理解 ・細部に注意を払う技術的思考 ・高品質の組織力とリーダーシップスキル ・優れたコミュニケーション能力とプレゼンテーション能力 ・英語での最低限のコミュニケーションが可能な方(目安TOEIC600点以上)
・課題の特定からアドホック分析、モデル構築、モデルデプロイメントまでの一連のデータサイエンスワークフローの遂行 ・当該企業が保有する多様なデータまたは外部データを活用した、顧客行動の分析インサイトの導出 ・ビジネス課題を解決するためのSQLやSparkなどを活用した大規模データの処理、適切な予測モデルやアルゴリズムの選択・実装、革新的なソリューションの提案 ・汎用的なデータサイエンスプロダクトの開発 ・データサイエンティスト、コンサルタント、プロジェクトマネージャー、データ戦略家との協働 ・スキルやナレッジを共有・学習する文化の創出 ・Spark、Hive、Kafka、Spark-Streaming、Hadoop、Google Cloud Platformなどのデータ処理フレームワークやテクノロジーを用いて、大規模なバッチデータパイプラインを構築を行い、データパイプラインを活用して、ガイドラインに沿ったデータチェック、顧客獲得、その他の主要なビジネスパフォーマンス指標についての重要な意思決定データの提供を行います ・データパイプライン管理:大規模なeコマースプラットフォームのデータパイプラインを構築・維持 ・自動化:データ取り込みプロセスを自動化し、手動データ処理を削減 ■募集背景 増員募集 ※働き方:リモート+週3日以上の出社
案件の必須スキル
・7年以上のデータサイエンスに関連する業務経験 ・Random Forest、Gradient Boosting Models、Neural netなどのモデルによる課題解決の経験 ・マーケティング課題(例:商品推薦、リテンション管理など)に関わるプロダクトの開発経験 ・探索的データ解析を行うスキル ・Python(pandas、scikit-learnなど)やSQL, Jupyter等を使ったデータ分析のスキル ・Sparkやクラウドコンピューティング技術などを利用した大規模データの取り扱い経験 ・SQLを使った複雑なデータ分析のスキルを有すること ・複雑なデータを精製し、要点を抑え、報告資料にまとめるスキルを有すること ・英語での最低限のコミュニケーションが可能な方(目安TOEIC600点以上)
■事業部について 開発統括本部/テクノロジー部はDMMのマーケティングを支援するためのシステム開発、制作したプロダクトを利用したマーケティング施策を実行している組織です。 配属の開発グループ第1エンジニアチームでは広告配信やメルマガ配信といったユーザーに対してDMMサービスの訴求を促すプロダクトを内製で開発運用しています。 ■業務内容 CRM施策に関連するデータ加工/抽出/分析を行う業務 メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成 L事前データ調査やユーザーリストの作成 事業KPI設計 成果レポート用クエリ作成 BIツール移行対応 施策ヒアリング等の要件定義 ■担当工程 要件定義 基本設計 詳細設計 保守改修 運用 <補足> アダルトコンテンツ:一部有り ※レポート作成やセグメントに利用するSQLの業務では直接的に触れる形ではないが、抽出データ内に作品タイトルなどが表示されるケースあり
案件の必須スキル
データ分析・加工の実務経験:2年以上 大量データを扱った経験 Lテーブル数:数十個〜、カラム数:数十個〜、処理対象レコード数:数千万レコード〜 L※大量データ最低規模のイメージとなります
クラウドサービス設計・開発
案件の必須スキル
<必須> - Javaアプリケーションの設計・開発経験 - JDBCによるプログラミング経験 - HTTPやTCPを利用したネットワークプログラミング経験 <あれば尚可> - JDBCドライバの実装に関する知識・JDBCドライバ開発経験 - Thriftに関する知識・経験 - Hadoop/Hiveに関する知識・経験
薬局顧客向けレコメンドエンジンの改良 分散処理の機能改良に伴う開発 工程:詳細設計、製造・単体試験、結合試験 使用OS:Windows、Linux 言語:Java ツール類:Hadoop、Hive、Spring、Riak Redmine、eclipse、SVN
案件の必須スキル
(必須) ・詳細設計、および、Javaプログラミングが行えること ・Webシステム開発経験(WebAPIの開発あり) (尚可) ・Hadoop、Hive、Spring、Riakの開発経験
ビッグデータ分析基盤のアプリケーションエンハンス保守に携わって頂きます。 ・GCP及び周辺ミドルウェアのEOSLに伴う、既存アプリケーションのバージョンアップ対応 ・各所からの要望によるデータレイクへの新規ETL対応 ・設計から運用保守までの一通りの作業(影響調査、技術調査、設計、実装、テスト、リリース等) ※保守フェーズのため、基本的には新規開発はなく、調査やEOSL、ETL対応がメインです
案件の必須スキル
・開発経験(影響調査、技術調査、設計、実装、テスト、リリース、クライアント向け資料作成 等)
案件の必須スキル
・ECサイトの分析経験を有すること(Webサイトのログ解析) ・データ分析スキルを有すること -R言語、SQL、Apache Hive、Python ・Linuxのコンソールオペレーションができること ・基礎集計スキル (ExcelやCSV生データから、どういうデータが含まれているかを半日程度で取りまとめられる) ・コミュニケーション能力が高く、齟齬を発生させない ・分析結果レポートの作成とプレゼンテーションができること
■業務内容 (1)Hive、Apache Spark、SQLなどを⽤いたデータ抽出、加⼯ (2)HDPコンポーネントを⽤いたデータ処理フロー構築、データ可視化 (3)Apache Spark MLlibなどを⽤いた機械学習アプリケーションの実装 稼 働:週2日~5日 相談可能 時 間:9:30 - 18:30(応相談) 服 装:ビジネスカジュアル・私服
案件の必須スキル
・Scala(もしくはJava)の実装経験 ・Hadoopエコシステムに関する知識(実務経験は問わない)
モバイルアプリの解析・マーケティングツールの提供、 アプリの企画・戦略コンサルティングを行っている企業にて 以下の作業を行う。 ・分析に必要なデータパイプラインの構築や中間データの整備 ・統計的手法や機会学習等の技術を用いて設計されたアルゴリズムやモデルの実装
案件の必須スキル
– 統計的手法や機械学習の技術を用いた機能の実装経験 MySQL、BigQuery、Hive、Spark などのデータストアの利用経験 – データ分析を行うパイプラインの設計およびその実装する能力
1 - 30件/全54件
この条件の新着案件情報を受け取る
単価で絞り込み
エリアで絞り込み
職種で絞り込み
この条件の新着案件情報を受け取る
最高単価
120万円
最低単価
60万円
平均単価
84.7万円
2025年06月のHiveのフリーランス案件・求人一覧の月額単価の平均は84.7万円です。 Hiveのフリーランス案件・求人一覧の年収の目安は1,017万円です。 単価20万円台のHiveのフリーランス案件・求人一覧は0件、単価30万円台のHiveのフリーランス案件・求人一覧は0件、単価40万円台のHiveのフリーランス案件・求人一覧は0件、単価50万円台のHiveのフリーランス案件・求人一覧は0件、単価60万円台のHiveのフリーランス案件・求人一覧は3件、単価70万円台のHiveのフリーランス案件・求人一覧は9件、単価80万円台のHiveのフリーランス案件・求人一覧は7件、単価90万円台のHiveのフリーランス案件・求人一覧は5件、単価100万円台のHiveのフリーランス案件・求人一覧は8件です。 ※フリーランスボード調べ(2025年06月04日更新)
2025年06月のHiveのフリーランス案件・求人一覧の平均月額単価は84.7万円です。前月比で-0.4%(-0.3万円)と月単位でみるHiveのフリーランス案件・求人一覧の月額単価は減少傾向です。
2025年06月のHiveのフリーランス案件・求人一覧の想定平均年収は1,016.6万円です。前月比で-0.4%(-3.8万円)と月単位でみるHiveのフリーランス案件・求人一覧の想定年収は減少傾向です。
働き方 | 割合 | 前月比 |
---|---|---|
フルリモート | 14.3% | -5.7% |
一部リモート | 42.9% | +22.9% |
常駐 | 42.9% | -17.1% |
2025年06月のHiveのフリーランス案件・求人一覧におけるフルリモート案件・求人の割合は14.3%で前月比で-5.7%とやや減少傾向にあります。一部リモート案件・求人の割合は42.9%で前月比で+22.9%とやや増加傾向にあります。常駐案件・求人の割合は42.9%で前月比で-17.1%とやや減少傾向にあります。
稼働可能日数 | 割合 | 前月比 |
---|---|---|
週5 | 66.7% | +5.2% |
週4 | 13.3% | -2.1% |
週3 | 13.3% | -2.1% |
週2 | 6.7% | -1% |
週1 | 0% | +0% |
2025年06月のHiveのフリーランス案件・求人一覧における週5案件・求人の割合は66.7%で前月比で+5.2%とやや増加傾向にあります。週4案件・求人の割合は13.3%で前月比で-2.1%とやや減少傾向にあります。週3案件・求人の割合は13.3%で前月比で-2.1%とやや減少傾向にあります。週2案件・求人の割合は6.7%で前月比で-1%とやや減少傾向にあります。週1案件・求人の割合は0%で前月比で+0%と横ばい傾向にあります。
業界 | 案件数 |
---|---|
広告 | 8件 |
ゲーム | 4件 |
通信 | 3件 |
EC | 3件 |
エンタメ | 2件 |
サービス | 2件 |
Hiveの業界別フリーランス案件数を分析すると広告は8件、ゲームは4件、通信は3件、ECは3件、エンタメは2件、サービスは2件でした。 Hiveの業界別フリーランス案件数の前月比較では広告は+0件(+0.0%)で前月から変化なし,ゲームは+0件(+0.0%)で前月から変化なし,通信は+0件(+0.0%)で前月から変化なし,ECは+0件(+0.0%)で前月から変化なし,エンタメは+0件(+0.0%)で前月から変化なし,サービスは+0件(+0.0%)で前月から変化なしとなっています。 (※フリーランスボード調べ/2025年07月) 広告の業界は特にフリーランス案件数が多いことがわかります。
職種 | 案件数 |
---|---|
インフラエンジニア | 15件 |
データサイエンティスト | 13件 |
AIエンジニア | 7件 |
機械学習エンジニア | 7件 |
プロジェクトマネージャー | 5件 |
プランナー | 5件 |
Webディレクター | 5件 |
その他 | 5件 |
データエンジニア | 5件 |
バックエンドエンジニア | 4件 |
サーバーサイドエンジニア | 4件 |
アプリエンジニア | 3件 |
データアナリスト | 3件 |
フロントエンドエンジニア | 2件 |
ネットワークエンジニア | 2件 |
組込・制御エンジニア | 2件 |
データベースエンジニア | 1件 |
PMO | 1件 |
Webマーケター | 1件 |
フルスタックエンジニア | 1件 |
Hiveの職種別フリーランス案件数を分析するとインフラエンジニアは15件、データサイエンティストは13件、AIエンジニアは7件、機械学習エンジニアは7件、プロジェクトマネージャーは5件、プランナーは5件、Webディレクターは5件、その他は5件、データエンジニアは5件、バックエンドエンジニアは4件、サーバーサイドエンジニアは4件、アプリエンジニアは3件、データアナリストは3件、フロントエンドエンジニアは2件、ネットワークエンジニアは2件、組込・制御エンジニアは2件、データベースエンジニアは1件、PMOは1件、Webマーケターは1件、フルスタックエンジニアは1件でした。 Hiveの職種別フリーランス案件数の前月比較ではインフラエンジニアは+2件(+15.4%)の大幅な増加,データサイエンティストは+1件(+8.3%)の増加,AIエンジニアは+0件(+0.0%)で前月から変化なし,機械学習エンジニアは+0件(+0.0%)で前月から変化なし,プロジェクトマネージャーは+1件(+25.0%)の大幅な増加,プランナーは+0件(+0.0%)で前月から変化なし,Webディレクターは+0件(+0.0%)で前月から変化なし,その他は+1件(+25.0%)の大幅な増加,データエンジニアは+1件(+25.0%)の大幅な増加,バックエンドエンジニアは+0件(+0.0%)で前月から変化なし,サーバーサイドエンジニアは+0件(+0.0%)で前月から変化なし,アプリエンジニアは+0件(+0.0%)で前月から変化なし,データアナリストは+1件(+50.0%)の大幅な増加,フロントエンドエンジニアは+0件(+0.0%)で前月から変化なし,ネットワークエンジニアは+0件(+0.0%)で前月から変化なし,組込・制御エンジニアは+0件(+0.0%)で前月から変化なし,データベースエンジニアは+0件(+0.0%)で前月から変化なし,PMOは+0件(+0.0%)で前月から変化なし,Webマーケターは+0件(+0.0%)で前月から変化なし,フルスタックエンジニアは+0件(+0.0%)で前月から変化なしとなっています。 (※フリーランスボード調べ/2025年07月) インフラエンジニアの職種は特にフリーランス案件数が多いことがわかります。
■Hiveとは Hiveとは、Hadoop上で動作するデータウェアハウスインフラストラクチャで、大規模なデータセットに対するクエリと分析を可能にするシステムです。 Hiveの特徴として、SQLに似たHiveQLを使ってクエリを実行できること、MapReduceを使ってクエリを並列処理できること、カラムナ型ストレージ形式を使って高速なクエリ処理ができること、UDFによるカスタム関数の定義ができること、パーティショニングによるクエリの最適化ができること、メタストアによるスキーマ情報の管理ができること、他のHadoopエコシステムと連携ができること、SERDEによる外部データ形式の取り込みができることなどが挙げられます。 Hiveができる開発はビッグデータ分析基盤構築、データウェアハウス構築、ETL処理開発、アドホック分析クエリ開発、機械学習前処理開発、ログ解析システム開発と幅広いです。 Hiveを活用している世界的サービスやプロダクトは、Facebook、Netflix、Airbnbなどがあります。 ■Hiveを活用するメリット この章ではHiveを活用するメリットについて説明します。 Hiveを習得することにより、具体的に以下のようなメリットがあります。 ・HadoopエコシステムにおけるSQLライクなデータ抽出・変換・集計を実現 ・テーブルという概念による構造化データの管理を実現 ・シリアライズ/デシリアライズの自動化による開発の生産性向上 ・Hadoopクラスタ上でのSQLクエリの分散実行による高速処理 ・ネイティブのテーブルとHBaseテーブルのシームレスな統合 ・UDFによるMapReduceと組み合わせた柔軟な処理の実装 ・Hive QLによる宣言的かつ直感的なクエリの記述 HiveはHadoopによる大規模データ処理の入り口として広く普及しており、データウェアハウジングやETLの文脈で採用されることが多い技術です。上記活用する上でのメリットを踏まえて、習得可否を検討することをおすすめします。 ■Hiveを活用するデメリット この章ではHiveを活用するデメリットについて説明します。 Hiveを習得することにより、具体的に以下のようなデメリットがあります。 ・リアルタイム処理には向かずバッチ処理向きの技術である ・レコードレベルの更新や挿入への対応が弱い ・標準では遅延の大きいMapReduce処理に依存している ・複雑なクエリの実行計画の制御が難しい Hiveはメリットが多いですが、リアルタイム性の欠如やデータ更新への弱さなど注意すべき点があります。 Hive習得を今後検討しているフリーランスエンジニアは、Hiveを活用するメリットとデメリットを比較した上で決めると後悔が少ないでしょう。 静的データの一括処理による分析を行うようなビッグデータ処理の現場で真価を発揮するツールと言えます。