1 - 39件/全39件
国内トップシェアのマーケティングプラットフォームにおける新規機能または既存機能の改善開発 主にデータを可視化、分析するためのレポーティングシステムの開発に携わります(バックエンド・フロントエンド両方あり) 要件定義~設計~開発~テストまで全工程に携わることが可能 個人のスキルと経験により上流工程(企画と直接折衷)・エンジニアリーダーも可能 PMの元で、小さめのチーム(3~5人程度)で2~4か月のサイクルでプロジェクトを企画し、スピード感を持って開発を進めています Java
案件の必須スキル
・Webシステム開発または保守経験:3年以上 ・PHPまたはJavaでの開発経験 ・Linux使用経験 ・コードレビュー経験 ・要件仕様に基づくテスト設計・実施経験
動画プラットフォーム事業にて取得しているデータの分析を担当して頂きます。日々蓄積される膨大なデータを用いて集計や統計分析を行いサービス改善、課題解決を行っていただきます。 <お任せする予定の作業> ・KPI集計や統計分析、ダッシュボードの構築 ・分析を実現するためのデータ収集や段取り ・企画との連携、サービスの開発支援・施策支援 ・他部署からの集計依頼や分析相談 Python
案件の必須スキル
・PythonやRなどを利用したデータ分析の経験:5年以上 ・SQLを用いたデータ分析やデータ集計の経験
アドネットワーク領域において、ソリューション事業を多数展開しております。 今回その中でもハイブリッド型のDMPシステムの開発をRubyをメインとしその他Reactを用いて開発支援を行っていただきます。 Ruby
案件の必須スキル
・Ruby on Railsを使ったWebアプリケーションの開発経験:3年以上 ・Hive等の分散処理フレームワークを用いた開発経験 ・Git、GitHub を利用したチーム開発経験 ・Reactを使ったWebアプリケーションの開発経験 ・AWSを用いた開発経験
データ分析プラットフォーム (Databricks) の運用、AWS 利用コスト最適化に関わる業務を実施していただきます。 ▼想定される主な業務 ・利用実態 (既存のリソースの稼働状況、設定されている権限) の調査 ・各種設計ポリシーを元に AWS リソース全般の設計・実装 ・運用ドキュメント (GitHub, Google Workspace) の増補、改善 ・Redash, Databricks を使用したダッシュボードの実装 ・AWS コスト削減方針検討・ライフサイクルなどの実装 AWS
案件の必須スキル
・SQLに関する基本的な知識 ・AWSを利用した開発・運用経験:3年以上 ・Pythonを利用したアプリケーション開発経験:1年ほど
大手ECサイトやオンラインゲーム等、複数コンテンツを持っております企業様での 自社開発レコメンドエンジンの開発案件です。 現在、社内の各種事業に順次展開をしておりますが、 よりスピーディーに展開を進めるため、開発エンジニアを募集しております。 主な作業内容は下記を想定しております。 ・node.js でのAPI設計・開発・テスト ・Hiveクエリの作成・テスト・チューニング ・Spark プログラムの設計・開発・テスト ・Jenkinsジョブの作成 ・Ansible設定ファイルの作成 など Node.js
案件の必須スキル
・Java・MySQLを用いたアプリケーション開発に3年以上従事し、基本設計〜テストまでを単独で行える事 ・Hadoopの技術をキャッチアップし、ビッグデータ関連の技術習得に意欲的に取り組める方
データ分析を通じた新サービス開発のために、 PMの指示の元で、Hadoop上にShellもしくはJavaでの実装をご担当頂きます。 ※設計、実装、テストは企画者/分析者/開発リーダーとコミュニケーションしながら進める形になります。 Java
案件の必須スキル
・Shellスクリプト設計・作成・運用ご経験 ・SQL/プログラミングのご経験
メディアプランニングシステム、アクセス解析ツールなどのマーケティングソリューションやPC/スマートフォン向け広告配信システムなど、 お客様の既存事業、新規事業を支えるシステムの設計・開発・運用を担当します。 広告サービス広告主向け、媒体向けに分かれており、プロダクトは20個以上あります。 (広告プランニング・広告業務サポート、第三者配信プラットフォーム/クリエイティブの最適化、、リッチ広告配信、ターゲティング広告、データベース広告配信etc) 要望、経験に合わせ、下記5つのいずれかを担当します。 ・広告配信プラットフォーム ・インターネット広告プランニングシステム ・新規プロダクト作成 ・ビックデータ解析(DNP) ・インフラ Java,Ruby,C#.NET,サーバ(インフラ)
案件の必須スキル
※担当プロダクトにより要件が異なります (広告配信プラットフォーム) ・C、Javaの経験 (インターネット広告プランニングシステム) ・.NET(FW2.0~4.0)、SQLserver2008以降~の経験 (新規プロダクト作成) ・Ruby2系、Rails4系の経験 (ビックデータ解析) ・Hadoop、Hiveの経験 (インフラ) ・NW、Sever(RedHat、Windows)、MySQLのいずれかに精通している方
某有名TVアプリにおけるユーザ行動データの設計と管理全般に携わっていただきます。 作業内容 ・施策や機能追加における分析要件のヒアリング ・ログ設計とテーブル設計 ・クライアントエンジニアへログ仕様説明 ・GoogleTagManagerの設定 ・行動ログの発火状況や品質管理 Python
案件の必須スキル
・Pythonでの開発経験:3年以上 ・ログ設計、データ設計経験 ・SQLでデータ抽出(hive,BigQueryなど)
【業務内容】 大手テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属していただきます。 ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。 インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。 アドテクやクラウド、データ収集/分析関連の最新技術を学び、経験することができ、かつテレビ局特有の高アクセス環境で技術的なチャレンジができる現場です。
案件の必須スキル
【必須スキル】 ・SQLを使ったDBプログラミングの開発経験 ・Python、PHP、JAVA、Golangのいずれかの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・AirflowやDigDagなどのワークフロー管理ツールの利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属して頂きます。 【具体的業務】 ・ビッグデータ基盤システムの構築、開発、保守 ・収集データを基にした社内外に向けた分析ツールの開発 ・機会学習システム(社外製品)を内製化して再構築 【開発環境】 ・言語:PHP(Laravel)、Python ・インフラ:AWS ・情報共有ツール:Backlog、Slack、 Googleハングアウト ・その他:Hadoopエコシステム、HDFS、MapReduce、 Hive、Pig、Presto、Memcached、Redis、 Ansible、Jenkins、Chef、Docker
案件の必須スキル
【必須】 ・Python、PHPのいずれかの開発経験 ・SQLを使ったDBプログラミングの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
◆主な仕事内容 ・社内外のユーザーが利用するデータ分析基盤の構築・運用 ・データ利用のガバナンス維持など、現行の運用時のFit&Gap及び、 Gapの解決に向けての方法 ・Databricks / Snowflake/ AWSなどの設定、棚卸しなどのシステム管理業務 ・データ利用の要件や条件などを遵守した社内外のシステムとの連携 ・新技術の評価、バージョンUPの検証 ・負荷やコストとパフォーマンスを意識したシステム構築 ※ただ開発をするだけでなく、プロジェクト内での意思決定に加わり、 具体的なアクションを決めるところからご参加いただけます。 要件定義から基盤の設計、一部実際の開発支援やデータの運用など、 プロジェクトの核となる部分をメンバーと一緒に実施していただきます。 ※フルリモート可 Python
案件の必須スキル
・JavaやPythonをはじめとした開発経験:3年以上 ・データベース、SQLを使用した開発・運用 ・Linuxでの業務または個人開発経験
インターネット広告のログデータなどを用いたデータ分析業務、およびそのデータ分析のためのツール開発などを行っていただきます。 Python
案件の必須スキル
・Pythonでの開発経験:3年以上 ・データベース、SQLを使用した開発・運用経験 ・クライアントもしくは社内のビジネス職に対して社内のエンジニアと連携しながらプロジェクトを推進した経験
〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、近年スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中でスポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python
案件の必須スキル
・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中で、スポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python
案件の必須スキル
・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
国内で人気の高いグルメコンテンツが 通信キャリアの公式コンテンツに向けて提供されることとなりました。 それに伴い、 設計~開発テストまで一貫してご対応いただきます。 [開発環境] PHP (Zend予定)/AWS / Amazon Linux / Ubuntu / Hive / Presto / Redis / chef / docker / OpenTSDB / nginx / node.js / scala / Treasure Data / github / MySQL / Java / Objective-C / HTML5 / CSS3 / JavaScript / Sass / Gulp iOS,Scala,PHP,HTML5/CSS3,JavaScript,AWS
案件の必須スキル
・PHPでの開発経験3年以上 ・基本設計以降のご経験
国内トップシェアのマーケティングプラットフォームにおいて、 新規機能または既存機能の改善開発に携わっていただきます。 主にデータを可視化、分析するためのレポーティングシステムの開発で、 バックエンド・フロントエンド両方の作業がございます。 要件定義~設計~開発~テストまで全工程に携わることが可能で、 これまでのご経験により、より上流工程(企画と直接折衷)もご担当いただくケースがございます。 <チーム体制> 人数は3~5人程度で、PMの元で2~4か月のサイクルでプロジェクトを企画し、 スピード感を持って開発を進めている現場です。 エンジニアリーダーとしてご活躍いただくことも可能です。 Java,Python,AWS
案件の必須スキル
5年以上のWebシステム開発または保守経験(PHPまたはJava必須) 5年以上のLinux使用経験 第三者としてのコードレビュー経験 要件仕様に基づくテスト設計・実施経験
クラウドサービス設計・開発
案件の必須スキル
<必須> - Javaアプリケーションの設計・開発経験 - JDBCによるプログラミング経験 - HTTPやTCPを利用したネットワークプログラミング経験 <あれば尚可> - JDBCドライバの実装に関する知識・JDBCドライバ開発経験 - Thriftに関する知識・経験 - Hadoop/Hiveに関する知識・経験
案件概要:開発グループ_SQLエンジニア募集 業務内容: CRM施策に関連するデータ加工/抽出/分析を行う業務 メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成 L事前データ調査やユーザーリストの作成 事業KPI設計 成果レポート用クエリ作成 BIツール移行対応 施策ヒアリング等の要件定義 開発環境: PC:Mac(JIS/US 選択可) ミドルウェア:MySQL、PostgreSQL 管理ツール:Slack、Jira、Confluence、Git その他:BigQuery、LookerStudio、Redash、Hive 業務環境: テクノロジー部全体:31名 開発グループメンバー:20名 配属先チーム:リーダー1名、メンバー7名 男女比:10:0(部全体では8割男性) 平均年齢:32歳 勤務時間:10:00~19:00 場所:六本木一丁目(基本リモート) ※地方相談可 ※初日はガイダンスの為、出社いただきます 備考: ・アダルトコンテンツ:一部あり ・弊社より20名ほど参画中のエンドクライアントです 外国籍:応相談 ビジネスレベル、日本在住の方のみ
案件の必須スキル
・データ分析・加工の実務経験:2年以上 ・大量データを扱った経験 Lテーブル数:数十個〜、カラム数:数十個〜、処理対象レコード数:数千万レコード〜 L※大量データ最低規模のイメージとなります
ビッグデータ分析基盤のアプリケーションエンハンス保守に携わって頂きます。 ・GCP及び周辺ミドルウェアのEOSLに伴う、既存アプリケーションのバージョンアップ対応 ・各所からの要望によるデータレイクへの新規ETL対応 ・設計から運用保守までの一通りの作業(影響調査、技術調査、設計、実装、テスト、リリース等) ※保守フェーズのため、基本的には新規開発はなく、調査やEOSL、ETL対応がメインです
案件の必須スキル
・開発経験(影響調査、技術調査、設計、実装、テスト、リリース、クライアント向け資料作成 等)
■事業部について 開発統括本部/テクノロジー部はDMMのマーケティングを支援するためのシステム開発、制作したプロダクトを利用したマーケティング施策を実行している組織です。 配属の開発グループ第1エンジニアチームでは広告配信やメルマガ配信といったユーザーに対してDMMサービスの訴求を促すプロダクトを内製で開発運用しています。 ■業務内容 CRM施策に関連するデータ加工/抽出/分析を行う業務 メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成 L事前データ調査やユーザーリストの作成 事業KPI設計 成果レポート用クエリ作成 BIツール移行対応 施策ヒアリング等の要件定義 ■担当工程 要件定義 基本設計 詳細設計 保守改修 運用 <補足> アダルトコンテンツ:一部有り ※レポート作成やセグメントに利用するSQLの業務では直接的に触れる形ではないが、抽出データ内に作品タイトルなどが表示されるケースあり
案件の必須スキル
データ分析・加工の実務経験:2年以上 大量データを扱った経験 Lテーブル数:数十個〜、カラム数:数十個〜、処理対象レコード数:数千万レコード〜 L※大量データ最低規模のイメージとなります
案件の必須スキル
・ECサイトの分析経験を有すること(Webサイトのログ解析) ・データ分析スキルを有すること -R言語、SQL、Apache Hive、Python ・Linuxのコンソールオペレーションができること ・基礎集計スキル (ExcelやCSV生データから、どういうデータが含まれているかを半日程度で取りまとめられる) ・コミュニケーション能力が高く、齟齬を発生させない ・分析結果レポートの作成とプレゼンテーションができること
■業務内容 (1)Hive、Apache Spark、SQLなどを⽤いたデータ抽出、加⼯ (2)HDPコンポーネントを⽤いたデータ処理フロー構築、データ可視化 (3)Apache Spark MLlibなどを⽤いた機械学習アプリケーションの実装 稼 働:週2日~5日 相談可能 時 間:9:30 - 18:30(応相談) 服 装:ビジネスカジュアル・私服
案件の必須スキル
・Scala(もしくはJava)の実装経験 ・Hadoopエコシステムに関する知識(実務経験は問わない)
モバイルアプリの解析・マーケティングツールの提供、 アプリの企画・戦略コンサルティングを行っている企業にて 以下の作業を行う。 ・分析に必要なデータパイプラインの構築や中間データの整備 ・統計的手法や機会学習等の技術を用いて設計されたアルゴリズムやモデルの実装
案件の必須スキル
– 統計的手法や機械学習の技術を用いた機能の実装経験 MySQL、BigQuery、Hive、Spark などのデータストアの利用経験 – データ分析を行うパイプラインの設計およびその実装する能力
<業務内容> アーキテクトチームにて、開発チームでは解決の難しい、 または機能横断的で影響範囲の広いような、難易度の高い課題解決に従事いただきます。 お願いする事柄は、単なるプログラム修正やインフラ整備だけではなく、技術検証やソリューションの策定など多岐に渡ります。 解決困難な課題に対して、楽しみつつも能動的にアクションを取れる方を求めています。
案件の必須スキル
・アプリ開発経験(Ruby or Java、5年以上) ・UNIXサーバーでのミドルウェア構築経験 (Ruby系、Java系のWebアプリケーション稼働環境構築。パフォーマンスチューニングまでは求めない。) ・アプリケーション共通のユーティリティ、またはライブラリの実装経験 ・システム設計(基本設計、詳細設計)の経験(3年以上)
・主に大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築からオーディエンスデータとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属し、ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。・インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。
案件の必須スキル
・アプリケーション開発経験3年以上 ・SQLを使ったDBプログラミングの開発経験 ・Python、PHP、JAVA、Golangのいずれかの開発経験1年以上 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験
[ポジション]:分析基盤エンジニア ◇データ分析対応チーム、もしくはデータ分析基盤構築チームにて、 A: 定型化されたデータ分析の実行(集計/加工/分析/可視化/アドホック対応など) B: 関連するデータ分析基盤システム構築(インフラ,システム開発/仮想化/など) のいずれかをご対応いただく予定です。・仕様や方針などは、A/B領域共にクライアント側で設定の上、後続対応を実施していただきます。・Aについては、基本出社対応、Bについては状況に応じて出社を予定しております。 [稼働先最寄り]・基本リモート or 現場常駐(出社時は東京都 港区エリア) ※現状、タスクに応じて50/50で対応中 ※ご面談設定の際に、詳細情報を連携させていたます。 [募集人数] ・メンバー枠: データ分析エンジニア : ~1名 データ分析基盤構築エンジニア: ~最大3名
案件の必須スキル
・Python、SQLを用いた実務経験(3年以上目安) -オーダーに対して、プログラミング領域を一定自走できる方のイメージです。 ・データ分析関連業務のご経験 -データ抽出/集計/加工/分析/可視化/アドホック対応など ・AWS等のCloud環境下での実務経験 ・チームコミュニケーションスキル
テレビ視聴データを分析するデータ基盤のインフラエンジニアとして 特に AWS EMR での Spark, HBase, Hive, Presto, Hudi といった分散DBの知見のある方を募集いたします。 データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
案件の必須スキル
・AWS でのデータ基盤のインフラ構築経験 ・分散DBの運用維持管理に関する知見 ・ETL のためのインフラに関する知見
・自社内システム開発運用保守支援 ・ビッグデータの解析と分析 ・データ設計 ・集計ジョブ開発 ・データ管理 ・保守運? ・開発環境:使??語 Python, Ruby, Java サーバOS Centos6系 バージョン管理システム GitHub Enterprise クラウド AWS(S3), GCP(GCS, BQ) OSS MySQL, Hadoop, Hive, Kafkaなど CI Jenkins コミュニケーションツール Sla
案件の必須スキル
・アプリケーション開発経験 ・Linuxサーバ上での基本的なオペレーション知識 ・データベースのテーブル設計経験 ・データベースの基本操作 ・SQLまたはHiveQLを利?したデータ集計 ・Python, RubyなどLL?語でのスクリプト開発経験
・自社製品バージョンアッププロジェクト ・アーキテクトチームにて難易度の高い課題解決に従事。 ・技術検証やソリューションの策定など多岐に渡る。
案件の必須スキル
・RubyまたはJavaでのアプリ開発経験5年以上(必須) ・UNIXサーバーでのミドルウェア構築経験(必須) ・アプリケーション共通のユーティリティ、またはライブラリの実装経験(必須) ・システム設計(基本設計、詳細設計)の経験3年以上(必須) ・自身のやり方に固執せず、個別 PJ の文化に適用し、貢献できる方(必須) ・プロジェクトを一緒に完遂して頂けるスタンスの方(必須) ・キャッチアップ力、意欲のある方(必須)
・家庭用ゲーム機用オンラインサービスに関するビッグデータ分析基盤の構築、サービス開発および運用 ・クラウドサービスを用いたETLアプリケーション、Web API開発 ・システム要件定義 、アーキテクチャ設計 ・Lightweight Language言語を用いた開発 ・Hadoop、Hive、Spark、ParquetなどのBigData解析技術を用いた開発 ・Linuxを用いたサーバ開発・運用 ・RDBやKVSを用いた開発 ・システムのテスト及びテストの自動化 ・アジャイル開発
案件の必須スキル
・Python の設計、実装、テストの経験(目安として1年以上)(必須) ・github を用いた開発経験(必須) ・ネットワークサービスのlinuxサーバー開発もしくは運用経験(必須) ・周囲とオープンなコミュニケーションが取れる方(必須)
・DataLakeの基盤となるインフラ基盤の構築(設計からテスト) ・Apache Kafkaを用いた分散ストレージへの高速なデータ格納、 分析基盤を見据えた構造化データ(Apache ORC)変換環境の構築作業 ・プライム側Azure環境で構築とお客様環境のオンプレ環境での構築作業 ・Azure環境はプライムメンバが開発作業をするための環境として利用想定 ・Azure環境はインフラ基盤の設計を実施するための検証環境としての意味合いも持つ ・最終的にお客様のオンプレ環境に基盤を構築
案件の必須スキル
・Read Hat Enterprise Linux ・Hive Metastore ・Apache Kafka ・Red Hat Gluster Storage ・Microsoft SQL Server ・Presto(尚) ・FESS(尚) ・Elasticsearch(尚
・数値に基づいた意思決定をするためのデータ分析 ・新規配信手法のプロトタイプ作成・提案 ・データ可視化システムを用いたレポーティング・プレゼンテーション など
案件の必須スキル
・分析要件定義 ・統計的素養 ・R, Python, Spark等を用いたデータ分析 ・DBに対する知識とSQLの利用 ・わかりやすさを意識したレポーティングとプレゼンテーション<歓迎スキル> ・Hadoop, HBase, Hiveなどを利用したデータ分析経験 ・Linux OS上での分析経験 ・Tableau Desktopの利用経験 ・D3.jsなどのデータ可視化ライブラリの利用経
1 - 39件/全39件
この条件の新着案件情報を受け取る
Hiveのフリーランス案件に関するよくある質問
Hiveのフリーランス案件・求人の月額単価相場を教えて下さい
Hiveのフリーランス案件・求人はどのくらいありますか
Hiveのフリーランス案件・求人でリモートワークや在宅ワークはできますか
Hiveのフリーランス案件は未経験でも応募可能ですか?
Hiveのフリーランス案件の商談や面談ではどのような内容が聞かれますか?
この条件の新着案件情報を受け取る
最高単価
120万円
最低単価
60万円
平均単価
85.6万円
2024年11月のHiveのフリーランス案件・求人の月額単価の平均は85.6万円です。Hiveのフリーランス案件・求人の年収の目安は1027万円です。単価20万円台のHiveのフリーランス案件・求人は0件、単価30万円台のHiveのフリーランス案件・求人は0件、単価40万円台のHiveのフリーランス案件・求人は0件、単価50万円台のHiveのフリーランス案件・求人は0件、単価60万円台のHiveのフリーランス案件・求人は3件、単価70万円台のHiveのフリーランス案件・求人は8件、単価80万円台のHiveのフリーランス案件・求人は5件、単価90万円台のHiveのフリーランス案件・求人は5件、単価100万円台のHiveのフリーランス案件・求人は8件です。※フリーランスボード調べ(2024年11月18日更新)
2024年11月のHiveのフリーランス案件・求人の平均月額単価は85.6万円です。前月比で-0.6%(-0.6万円)と月単位でみるHiveのフリーランス案件・求人の月額単価は減少傾向です。
2024年11月のHiveのフリーランス案件・求人の想定平均年収は1,026.6万円です。前月比で-0.6%(-6.7万円)と月単位でみるHiveのフリーランス案件・求人の想定年収は減少傾向です。
働き方 | 割合 | 前月比 |
---|---|---|
フルリモート | 100% | +66.7% |
一部リモート | 0% | +0% |
常駐 | 0% | -66.7% |
2024年11月のHiveのフリーランス案件・求人におけるフルリモート案件・求人の割合は100%で前月比で+66.7%とやや増加傾向にあります。一部リモート案件・求人の割合は0%で前月比で+0%と横ばい傾向にあります。常駐案件・求人の割合は0%で前月比で-66.7%とやや減少傾向にあります。
■Hiveとは Hiveとは、Hadoop上で動作するデータウェアハウスインフラストラクチャで、大規模なデータセットに対するクエリと分析を可能にするシステムです。 Hiveの特徴として、SQLに似たHiveQLを使ってクエリを実行できること、MapReduceを使ってクエリを並列処理できること、カラムナ型ストレージ形式を使って高速なクエリ処理ができること、UDFによるカスタム関数の定義ができること、パーティショニングによるクエリの最適化ができること、メタストアによるスキーマ情報の管理ができること、他のHadoopエコシステムと連携ができること、SERDEによる外部データ形式の取り込みができることなどが挙げられます。 Hiveができる開発はビッグデータ分析基盤構築、データウェアハウス構築、ETL処理開発、アドホック分析クエリ開発、機械学習前処理開発、ログ解析システム開発と幅広いです。 Hiveを活用している世界的サービスやプロダクトは、Facebook、Netflix、Airbnbなどがあります。 ■Hiveを活用するメリット この章ではHiveを活用するメリットについて説明します。 Hiveを習得することにより、具体的に以下のようなメリットがあります。 ・HadoopエコシステムにおけるSQLライクなデータ抽出・変換・集計を実現 ・テーブルという概念による構造化データの管理を実現 ・シリアライズ/デシリアライズの自動化による開発の生産性向上 ・Hadoopクラスタ上でのSQLクエリの分散実行による高速処理 ・ネイティブのテーブルとHBaseテーブルのシームレスな統合 ・UDFによるMapReduceと組み合わせた柔軟な処理の実装 ・Hive QLによる宣言的かつ直感的なクエリの記述 HiveはHadoopによる大規模データ処理の入り口として広く普及しており、データウェアハウジングやETLの文脈で採用されることが多い技術です。上記活用する上でのメリットを踏まえて、習得可否を検討することをおすすめします。 ■Hiveを活用するデメリット この章ではHiveを活用するデメリットについて説明します。 Hiveを習得することにより、具体的に以下のようなデメリットがあります。 ・リアルタイム処理には向かずバッチ処理向きの技術である ・レコードレベルの更新や挿入への対応が弱い ・標準では遅延の大きいMapReduce処理に依存している ・複雑なクエリの実行計画の制御が難しい Hiveはメリットが多いですが、リアルタイム性の欠如やデータ更新への弱さなど注意すべき点があります。 Hive習得を今後検討しているフリーランスエンジニアは、Hiveを活用するメリットとデメリットを比較した上で決めると後悔が少ないでしょう。 静的データの一括処理による分析を行うようなビッグデータ処理の現場で真価を発揮するツールと言えます。