1 - 50件/全218件
■現在のサービス スマートフォンやタブレットのアプリを使い、外出先からでも様々な家電のコントロールを行い、室内の温度や湿度やなどの環境を把握する事ができるHome IoTサービスを提供しています。 具体的には、日本初の提案型AIエージェント「グラモン」を搭載した、 インターホンモニター、ホームIoT、HEMSモニター、セキュリティ、見守りの全てを一台に搭載したIoT機器である「9DOTs」を中心に、鍵の操作が可能なスマートロック「Glamo Smart Lock」、電気料金の状況を確認できるHEMS機器「iRemocon CT」などの多くの自社製品を組み合わせ、それらを「iRemocon Smart Home」アプリで一括操作できるソリューションサービスです。 ■業務内容 弊社が手掛けるHome IoTサービスの新サービスの開発を担ってもらいます。 世の中にない新しいサービスをアプリエンジニア等と連携して開発を行ってもらいます。 https://9dots.homes/ ■同社の特徴: 同社は、人々の住生活がもっと安心・安全・快適になるようなプロダクトの開発に努めています。 また、全て自社開発のため、各エンジニアが裁量を持って開発していきます。 自社サービスの開発となるため、客先出向は一切ありません。 チームワークの取れた社内のディレクターやエンジニアと連携しながらプロジェクトを進めていきます。
案件の必須スキル
・JavaまたはKotlinでWebフレームワークを使った開発経験 ・Go言語でWebフレームワークまたはAWS Lambdaを使った開発経験 ・MySQLでの開発・運用経験 ・Linux上で動作するアプリケーションの開発・運用経験 ・AWSでEC2(Linux)を使った構築・運用経験
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
大手キャリアが提供するスーパー販促プログラムにおいて、加盟店(飲食店、小売等)が利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)のデータ関連の開発および、顧客企業との仕様調整、実現性検討を行っていただきます。 Python
案件の必須スキル
・AWSやGCP、Azureなどのクラウドにおける開発経験:2年以上 ・Pythonでの開発経験:3年以上 ・下記の項目を1つ以上満たす方 データベース、データウェアハウスを使ったデータ基盤の開発経験 データ処理パイプラインの開発経験 Apache Hadoop、Sparkなどの分散データ処理の開発経験
自社サービスである資金調達プラットフォームのデータサイエンティストをお任せします。 現在、順調にご利用いただける顧客が増えており、顧客からあずかる財務データ、売上データや 当社サービスの利用実績をもとに、アルゴリズム開発を進め、サービスの精度を上げていただきます。 【プロダクトについて】 22年4月にローンチしたスタートアップの資金調達に新しい選択肢を提供するFintechサービスです。 顧客の財務データから未来の売り上げを査定し、査定を根拠に資金を提供しております。 現在は顧客の会計ソフトとAPI連携し、財務データの査定を行う機能などをローンチしておりますが、 サービス提供を開始したばかりでもあるため、お客様の声を吸い上げてのユーザビリティを向上していける開発体制を目指しております。 また、今後は社内のオペレーションフロー(財務データの提出~スコアリング(査定)~資金提供~返済)を効率化し、 ”より早く””より多く”の顧客利用実績をつくるためのシステム開発や、新たなサービスもこれからローンチしていく予定がございます。 将来的には東南アジアなど海外でのサービス展開も見据えております。 【チーム体制】 プロダクト開発部:8~9名前後 CTO、PdM、エンジニア2名、データサイエンティスト、業務委託メンバー数名 ※フランス、インド、ポーランドなど多国籍なメンバーが活躍しております Python,その他
案件の必須スキル
・データサイエンティストとしてアルゴリズム開発のご経験:3年以上 ・ビジネスレベルの英語力
HadoopやDWH関連のデータ分析基盤構築支援のサービスをメインで展開されている弊社顧客内の請負開発チーム内において、AWS ECS、Snowflake、Datadog、Databricks等を使用したデータ分析構築をご一緒に担当いただける方を募集しております。 ※顧客内に複数案件が同時に走っている為、技術者様のスキルセットに併せて、見合う案件を面談時にご紹介いたします AWS
案件の必須スキル
・データ基盤開発のご経験 ・AWSの構築経験 ・BIツール使用経験
動画プラットフォーム事業にて取得しているデータの分析を担当して頂きます。日々蓄積される膨大なデータを用いて集計や統計分析を行いサービス改善、課題解決を行っていただきます。 <お任せする予定の作業> ・KPI集計や統計分析、ダッシュボードの構築 ・分析を実現するためのデータ収集や段取り ・企画との連携、サービスの開発支援・施策支援 ・他部署からの集計依頼や分析相談 Python
案件の必須スキル
・PythonやRなどを利用したデータ分析の経験:5年以上 ・SQLを用いたデータ分析やデータ集計の経験
EC,動画などの複数コンテンツを開発する企業様にて、 コアプラットフォームの設計・開発をご担当頂きます。 大規模サービスを高度な技術力で支え、 安定したサービスを提供していく事がコアプラットフォームの役割です。 1700万人のユーザーを持つ巨大プラットフォームの根底にある、 プラットフォーム開発・インフラ整備・ガイドラインの整備・セキュリティや品質の確保等、業務は多岐にわたります。 (作業内容例) ・新ポータル開発 ・各基盤APIの設計開発 ・各サービスに跨る基盤の整備 ・高負荷対策フォロー ・業務効率化、開発 ・運用の自動化 ・品質・セキュリティの確保 ・新規サービスの立ち上げフォロー (募集背景) 組織を横断して新規プロジェクトを立ち上げる事になり、 ハイレベルのスキルをお持ちのエンジニアの方を募集し さらにレベルの高いプラットフォームを構築していきたいと考えています。 Java,Python,Ruby
案件の必須スキル
・Ruby on RailsでのWebアプリケーション、APIの開発経験(2年以上) ・Java,Phthon,rubyでの開発経験(2年以上) ・プロジェクトの立ち上げの経験 ・ミドルウェア(Apache,Tomcat,MySQL)に関する構築・運用・チューニング経験 ・Linuxに関する構築・運用・チューニング経験 ・WebAPIの利用・構築に関する知識・経験 ・クラウド基盤を利用した自動化経験 ・Ansibleなどの構成管理ツールの利用経験 ・L2/L3/L4通信に関する基本的な知識 ・Webセキュリティに関する基本的な知識
ビッグデータ関連部署において、 共通基盤となるレコメンドAPIの開発案件になります。 インフラ基盤はAWSを利用しており、 主にこのAWSの環境構築、運用、チューニングをご担当頂きます。 レコメンドアルゴリズムの実装、各サービスへの展開、装着を 一部補助頂く可能性もございます。 Java,AWS
案件の必須スキル
・AWSを利用した環境の構築 ・インフラの運用/チューニング(トラフィック予測/制御及びDB) ・Unix系OS(Linuxでも可)の使用経験1年以上 ・Javaを用いた開発の経験
葬祭サービスを提供する企業にてデータ分析基盤の開発を行っていただきます。 ビジネス上のつながりのデータや、ユーザーの行動データを活用するための分析基盤開発を行うことで、事業の成長を担っていただくことがミッションです。 【具体的な作業内容】 ・データのETL処理やETL処理のためのスクリプト、システム開発運用業務 ・データの傾向や内容を知るための集計、分析、可視化 ・AWSを用いた分析基盤構築および運用業務 ・データのセキュリティ対応 ・ドキュメント整備、啓蒙活動 ・Web広告の改善のユーザーの行動分析 ・TableauなどのBIツールなどの連携 Python
案件の必須スキル
・業務での開発経験:2年以上(言語不問) ・パブリッククラウドの利用経験:1年以上 ・SQLを用いた業務開発経験:1年以上
当社の各プロダクトのバックエンド開発を行って頂きます。 AWSのマネージドサービスをフル活用しながら将来の事業の変化に合わせた技術の選定、設計、実装を進めます。 サーバーレス化、一部機能のマイクロサービス化、開発効率やスケーラビリティなども考慮しつつ、いかに早く効率的にデリバリーしてユーザに使って頂くかのバランスを取るかをチームで決定しながら開発を進めます。 また一方で、医療情報を扱う事業者として、他の分野と比較して信頼性・セキュリティなどに求められるレベルも高く、インフラ構成も含めて実装を進めます。 高い信頼性やパフォーマンスを維持しつつ安定して開発を継続するため、アプリケーションコード、AWSのインフラ、DevOps などをより良い形で実装、改善をして頂ける方を募集します。 ※エンド直案件となります。面談は弊社同席で1回行います。
案件の必須スキル
・汎用的な高いプログラミング能力 ・AWS/GCP/Azure などのクラウドサービスでの開発経験 ・RDBMS / NoSQLの知識・設計の経験 ・Webアプリケーションでのセキュリティ知識・運用・経験 ・CI/CD、ログ収集、監視などのDevOpsの経験 ・Infrastructure as Codeの知識・経験 【求める人物像】 ・チームで成果を出すことに喜びを感じる方 ・HRT(謙虚・尊敬・信頼)の姿勢を大切にしている方 ・医療に関心のある方 ・課題提起から実際に手を動かして解決してくれる方 ・新しい技術などに好奇心を持ち積極的に挑戦してくれる方 ・中長期でシステムを維持するためのコードの質や開発プロセスを大事にする方 ・アジャイルソフトウェア開発に関心のある方 ・あるべき論だけではなく、現状を踏まえた上で清濁併せのんでプロジェクト推進ができる方 ・主体的に動ける方
不動産業界向けデータプラットフォームシステムの基盤構築に携わっていただきます。 ・高速かつ容易な分析を可能とする基盤のアーキテクチャ検討 ・データ分析基盤の構築、運用 ・データソース間の移送、統合 ・データ分析を必要とするビジネスメンバーのサポート、分析作業 AWS
案件の必須スキル
・AWS基盤構築経験:3年以上 ・テーブル設計、DBチューニングの実務経験 ・SQLを使ったデータ集計、データ分析業務の経験 ・RDBMSに対する知識
データ分析プラットフォーム (Databricks) の運用、AWS 利用コスト最適化に関わる業務を実施していただきます。 ▼想定される主な業務 ・利用実態 (既存のリソースの稼働状況、設定されている権限) の調査 ・各種設計ポリシーを元に AWS リソース全般の設計・実装 ・運用ドキュメント (GitHub, Google Workspace) の増補、改善 ・Redash, Databricks を使用したダッシュボードの実装 ・AWS コスト削減方針検討・ライフサイクルなどの実装 AWS
案件の必須スキル
・SQLに関する基本的な知識 ・AWSを利用した開発・運用経験:3年以上 ・Pythonを利用したアプリケーション開発経験:1年ほど
自社プロダクトのデータ分析基盤(API / 解析基盤)の開発・運用を行って頂きます。 Go + Scala + Spark Stream + Hadoopなど最新の技術を積極的に取り入れながら、 データ分析基盤を1から開発する経験ができます。 (作業内容例) ・API、WEBアプリケーションの設計、開発、運用 ・リアルタイム分析基盤の設計、開発、運用 ・広告配信基盤の設計、開発、運用 ・機械学習を使った異常検知/未来予測基盤の設計、開発、運用 Go,Scala
案件の必須スキル
・Java, Ruby, Python, Golangなどのプログラミング言語での開発経験 ・Git / Githubを利用した開発経験 ・RDBMS(MySQL 又は Oracle)を使った開発経験
アドネットワークサービスの広告配信アルゴリズム分析基盤の構築をご担当いただきます。 同部署にはアドテクエンジニアも多く所属しており、ディスカッションを行いながらアルゴリズム構築となります。 Python,DB(インフラ)
案件の必須スキル
大規模データ分析経験 分析用ソフトウェアの利用経験
社内ソーシャルゲームシステムにおいて、 社内DBの要件定義、設計、構築、運用といった データベースの全般業務を担当して頂きます。 ・データベースシステムの選定(ハードウェア、OS、ストレージ、DB統合監視ソフトなど) ・データベースの企画、設計(論理・物理)、構築、運用管理 ・データベースの移行、検証、性能試験 ・データベースのパフォーマンスチューニングおよびトラブルシューティング ・データベースの標準化(SQLコーディング、設計・構築方針) ・データベースプログラムの開発(ストアドプロシージャ、DB性能監視プログラムなど) DB(インフラ)
案件の必須スキル
・MySQLデータベースに関するDBA経験3年以上 ・Linux環境でのDBA実務経験がある方
自社サービスに関わる広告配信周りの開発を行っていただきます。 広告配信サーバーの開発や、広告配信ツール、 配信アルゴリズムの最適化やインフラ構築など、 フルスタックエンジニアとして活躍していただきます。 [開発環境] Ruby on Rails、nginx、Hadoop、Redis、memcached MySQL、MongoDB など Ruby,NW(インフラ),サーバ(インフラ)
案件の必須スキル
・Ruby on Rails を使用したWEBアプリケーションの開発経験 ・サーバー構築などWebサービスを支えるインフラ対応経験
大手ECサイトやオンラインゲーム等、複数コンテンツを持っております企業様での 自社開発レコメンドエンジンの開発案件です。 現在、社内の各種事業に順次展開をしておりますが、 よりスピーディーに展開を進めるため、開発エンジニアを募集しております。 主な作業内容は下記を想定しております。 ・node.js でのAPI設計・開発・テスト ・Hiveクエリの作成・テスト・チューニング ・Spark プログラムの設計・開発・テスト ・Jenkinsジョブの作成 ・Ansible設定ファイルの作成 など Node.js
案件の必須スキル
・Java・MySQLを用いたアプリケーション開発に3年以上従事し、基本設計〜テストまでを単独で行える事 ・Hadoopの技術をキャッチアップし、ビッグデータ関連の技術習得に意欲的に取り組める方
データ分析を通じた新サービス開発のために、 PMの指示の元で、Hadoop上にShellもしくはJavaでの実装をご担当頂きます。 ※設計、実装、テストは企画者/分析者/開発リーダーとコミュニケーションしながら進める形になります。 Java
案件の必須スキル
・Shellスクリプト設計・作成・運用ご経験 ・SQL/プログラミングのご経験
メディアプランニングシステム、アクセス解析ツールなどのマーケティングソリューションやPC/スマートフォン向け広告配信システムなど、 お客様の既存事業、新規事業を支えるシステムの設計・開発・運用を担当します。 広告サービス広告主向け、媒体向けに分かれており、プロダクトは20個以上あります。 (広告プランニング・広告業務サポート、第三者配信プラットフォーム/クリエイティブの最適化、、リッチ広告配信、ターゲティング広告、データベース広告配信etc) 要望、経験に合わせ、下記5つのいずれかを担当します。 ・広告配信プラットフォーム ・インターネット広告プランニングシステム ・新規プロダクト作成 ・ビックデータ解析(DNP) ・インフラ Java,Ruby,C#.NET,サーバ(インフラ)
案件の必須スキル
※担当プロダクトにより要件が異なります (広告配信プラットフォーム) ・C、Javaの経験 (インターネット広告プランニングシステム) ・.NET(FW2.0~4.0)、SQLserver2008以降~の経験 (新規プロダクト作成) ・Ruby2系、Rails4系の経験 (ビックデータ解析) ・Hadoop、Hiveの経験 (インフラ) ・NW、Sever(RedHat、Windows)、MySQLのいずれかに精通している方
某不動産情報サービス企業様が蓄積している大量データの分析、およびDB構築に関わるデータ調査、分析、データクレンジング、名寄せ処理が主な作業となります。 データ分析以外にも希望があればAWSのマネージドサービス(Glue、Lambda、MWAA等)を用いたデータレイク構築作業にも携わっていただくことが可能です。 Python
案件の必須スキル
・Pythonを利用した開発経験:2年以上 ・データ分析プロジェクトへの参画経験 ・問題点などの共有を自ら行うことができ、自発的に行動できる方 ・協調性があり、コミュニケーション能力の優れている方
同社で運営する広告配信アプリの新規開発に携わっていただきます。 データベース、ネットワーク等、各分野のスペシャリストが在籍しており、 最新技術に触れられる点が魅力です。
案件の必須スキル
【必須】 ・下記いずれかでの開発経験 (Scala、Java、PHP、Ruby) 【尚良】 ・広告業界の知識、経験 ・Hadoopの使用経験
【業務内容】 大手テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属していただきます。 ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。 インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。 アドテクやクラウド、データ収集/分析関連の最新技術を学び、経験することができ、かつテレビ局特有の高アクセス環境で技術的なチャレンジができる現場です。
案件の必須スキル
【必須スキル】 ・SQLを使ったDBプログラミングの開発経験 ・Python、PHP、JAVA、Golangのいずれかの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・AirflowやDigDagなどのワークフロー管理ツールの利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属して頂きます。 【具体的業務】 ・ビッグデータ基盤システムの構築、開発、保守 ・収集データを基にした社内外に向けた分析ツールの開発 ・機会学習システム(社外製品)を内製化して再構築 【開発環境】 ・言語:PHP(Laravel)、Python ・インフラ:AWS ・情報共有ツール:Backlog、Slack、 Googleハングアウト ・その他:Hadoopエコシステム、HDFS、MapReduce、 Hive、Pig、Presto、Memcached、Redis、 Ansible、Jenkins、Chef、Docker
案件の必須スキル
【必須】 ・Python、PHPのいずれかの開発経験 ・SQLを使ったDBプログラミングの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
テレビ視聴データをWEBで分析できるマーケティング分析ツールを自社で開発されている企業です。 ターゲットのテレビ視聴やCM接触を詳細プロフィールで分析でき、 広告宣伝をはじめ、メディア営業・プランニングにも活用されているサービスとなります。 ■業務内容 自社SaaSシステムの刷新プロジェクトの基本設計において、アーキテクトと連携しながらインフラの検討及び構築をお願いします。 ビッグデータの解析・集計処理も行うため、解析基盤の検討・構築にも携わっていただきます。 ■具体的な作業内容(一例です) ・Terraform、CloudFormationによるIaaS環境の整備 ・GitHub Actionsなどを利用したCI / CD環境の整備 ・ビッグデータ解析・集計基盤の整備 AWS
案件の必須スキル
・ビッグデータ解析基盤の構築に関する実務経験:3年以上 ・IaaS、CI/CDの実務経験:2年以上
ログ解析基盤のバッチ処理やレポーティングツールの開発、保守、運用、 または、その他の関連システムの開発、保守、運用などをお任せします。 Java,SQL
案件の必須スキル
・Java サーバサイド、バッチ処理 ・SQLプログラミング ・Linuxに関する基礎知識 ・Git, Github, Mavenなどの開発ツールに関する基礎知識
Facabook、Twitter、ブログなどソーシャルメディアと連動した モニター情報サービスの運用開発やユーザー問い合わせに対する 技術調査などをご担当いただきます。 技術的に可能であれば、Hadoopを使った集計システムも 担当して頂きます。 <開発環境> 言語:Java OS:Linux(サーバー)※開発PCはWindows, Macから選択可 DB:MySQL FW:Play Framework1系 その他:Hadoop, Github, Backlog <チーム体制> ・プロデューサー:1名 ・運用担当者:1名 ・エンジニア:1名 Java
案件の必須スキル
・Javaでのサーバーサイド開発経験3年以上 ・Linuxサーバーでの作業経験 ・小規模チームでの開発経験
ビッグデータ分析部署にご参画いただき、組織運営をサポート頂きます。 <ご参画部署> ビッグデータを活用し、該当企業が提供している web上でのレコメンデーション、 スマホサイトでのPush Notification、メールマガジンでのOneToOne施策など、 さまざまなターゲティング施策、パーソナライゼーション施策を行う。 ※技術的な側面では、HadoopをはじめとしたBIGDATAのインフラを活用しながら、 統計解析や機械学習を応用したさまざまな情報推薦を行う専門部署です。 <作業内容> ・グループでの取り組み施策の管理、リソースマネジメント、 コスト管理等における課題整理、とりまとめ ・グループ主催会議の事務局運営や、議事録作成、課題管理 ・各施策におけるグループ社員のサポート(論点、課題整理など) その他
案件の必須スキル
・打ち合わせに必要な各種資料の作成 ・抽象的な事柄を整理して資料に起こすことができる。 ・上記のような資料をPowerpoint、Excelで作成することができる。 ・他部門含めた関係者の調整、コミュニケーションスキル ・会議等のファシリテーションスキル
月間約200億impある大規模広告アドネットワークシステム(SSP/RTB)を保有する企業内でのデータマイニング、及びPythonによるプログラム開発の業務をお任せします。 扱うデータ量は300GB/日、9TB/月と、大規模なものになりHadoopを使った処理や、広告配信システムとの連携におけるPythonでのプログラム開発がメインの作業となる予定です。 扱うデータの種類としては、ユーザーの行動、クリック率、クリック数など、広告の接触状況などのデータとなります。 Python
案件の必須スキル
・大量データの解析処理経験 ・プログラミングの経験
◆主な仕事内容 ・社内外のユーザーが利用するデータ分析基盤の構築・運用 ・データ利用のガバナンス維持など、現行の運用時のFit&Gap及び、 Gapの解決に向けての方法 ・Databricks / Snowflake/ AWSなどの設定、棚卸しなどのシステム管理業務 ・データ利用の要件や条件などを遵守した社内外のシステムとの連携 ・新技術の評価、バージョンUPの検証 ・負荷やコストとパフォーマンスを意識したシステム構築 ※ただ開発をするだけでなく、プロジェクト内での意思決定に加わり、 具体的なアクションを決めるところからご参加いただけます。 要件定義から基盤の設計、一部実際の開発支援やデータの運用など、 プロジェクトの核となる部分をメンバーと一緒に実施していただきます。 ※フルリモート可 Python
案件の必須スキル
・JavaやPythonをはじめとした開発経験:3年以上 ・データベース、SQLを使用した開発・運用 ・Linuxでの業務または個人開発経験
【20 代から40 代の方が活躍中!】 ※週4日~OK案件です! ※実務経験1年以上ありの方が対象の案件です! ■概要 某社が手掛けるゲーム事業の分析基盤開発および運用を担当します。BigQueryやAirflowを使用し、設計から運用までを裁量を持って進めていただきます。企画担当者やインフラ担当者と連携しながら、データ分析基盤の開発を進めます。 ■具体的な業務内容 ・BigQuery、Airflowを使用した分析基盤の設計・開発 ・データパイプラインの開発および運用 ・企画担当者、インフラ担当者とのコミュニケーション ・データ分析および可視化の基盤構築 勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら上記業務を進めて頂く予定です。
案件の必須スキル
・円滑なコミュニケーションが取れる方 ・PythonまたはPHPを使用したアプリケーションの開発経験 ・一般的なミドルウェアの基礎知識 ・MySQL/NoSQLを利用した開発経験 ・インフラ/DevOpsを含めたシステム全体の設計/構築/運用経験 ・GCP/AWSを使用した開発経験 ・k8s、Dockerを使用した開発経験 ・BigQuery、Redshift、Hadoopなどを使用したデータ分析基盤の開発経験
インターネット広告のログデータなどを用いたデータ分析業務、およびそのデータ分析のためのツール開発などを行っていただきます。 Python
案件の必須スキル
・Pythonでの開発経験:3年以上 ・データベース、SQLを使用した開発・運用経験 ・クライアントもしくは社内のビジネス職に対して社内のエンジニアと連携しながらプロジェクトを推進した経験
〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、近年スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中でスポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python
案件の必須スキル
・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中で、スポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python
案件の必須スキル
・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
某大手不動産情報会社にてシステムの開発・改修・保守・運用及び付随案件の対応をお任せします。 ・物件API / HADOOP開発・改修・保守支援作業 ・画像関連開発・改修・保守支援作業 【開発環境】 Ruby ,MONGODB ,HADOOP Ruby
案件の必須スキル
・Ruby/rails経験2年以上 又は、Java/PHP 3年以上でRuby/rails経験1年以上 ・Rspec/JUnit等ユニットテスト経験
月間100万UUに達する老人ホーム、高齢者向けの 住宅検索サービスの運用開発をメインでご担当いただきます。 開発業務に関しては、オフショア先のベトナムでも担当している為 オフショアエンジニアとやり取りするケースも考えられます。 多少英語を使う可能性があります。 <想定される業務範囲> ・Mysql、Apache等、OS上で動く各種サーバーの整備/運用、ドキュメント化 ・クローラー、そしてその結果の解析・格納系処理等のメンテ、運用 ・フロント側にデータを渡す側として、そのデータ&インターフェース等の調整 ・個人情報を取り扱う関連の業務部分の支援機能の開発・分析 ・アカウント、電話システム設定等、部内業務のIT支援 <開発環境> 言語:PHP、Perl OS:Linux、AWS DB:MySQL FW:CakePHP2系 その他:Apache、Git PHP,Perl
案件の必須スキル
・Linux系システムの十分な経験(root権限で設定作業した事がある事) ・MySQL DBの十分な利用経験 ・何らかのスクリプト系の言語(Perl、PHP、Python、Ruby)の経験
月間約200億インプレッションの大規模アドネットワークシステムにおける開発、運用業務をお任せします。 配信サーバーはPython、管理画面はPHP(将来的にはPython)で作られています。 開発スタイルはコードレビューのあるTDDスタイルを採用しています。 Redis上には数億レコードデータを保有し、 それらをSSDやI/Oではなくオンメモリ上で扱っています。 また、現状はHadoopで分散処理をしていますが、 今後はAmazon Elastic MapReduceに移行する予定です。 開発環境は以下を使用しています。 言語:Python(Flask、WSGI、werkzeug) OS:Linux(ubuntu) DB:MySQL KVS:Redis 分散処理系:Hadoop 自動化系:Chef、Jenkins その他:Nginx、Git、Redmine Java,Python,PHP,Ruby,Perl
案件の必須スキル
・Java、PHP、Perl、RubyなどのWEB系言語の経験 ・プログラミングが好きな方 ・コードレビューの経験
RTB_DSPのアプリケーション全体や管理画面をメインに新規実装や各種改修等を担当します。 常に高トラフィックで動き続けるシステムであり、実装改修によって大きなビジネスインパクトを起こします。 開発規模は10名程度で、開発環境は以下を使用しています。 【開発環境】Scala、Playframework2系、Redies、Hadoop、node.js、BackboneJS・・・etc コーダー1名、フロントエンジニア1名のメンバーを募集しています。 HTML5/CSS3,JavaScript,Photoshop/Illustrator
案件の必須スキル
・HTML、CSSを使ったWebサイト作成の経験 ・jQueryを使用しないJavaScriptを使ったWebアプリの開発経験 ・LESS、SCSSなどを使用した経験 ・Grunt、gulpなどを使用した経験
【20代~40代のエンジニア活躍中!】サービス成長のために必要があればなんでも挑戦したい方、ユーザー視点でサービスの成長を一緒に考えていける方をお待ちしております。 私たちは香水だけでなく、香りを軸にしたECプラットフォームを目指しています。香りに関するデータを武器に、香り×テクノロジーの領域を一緒に切り拓いていく仲間を募集しております。 「嗅覚」は五感の中でも抽象的であり、表現することが難しい領域です。だからこそ、私たちが持つ香りに関するデータを元に香り表現を設計することに大きな価値があります。 [ 職務内容/本ポジションについて ] 機械学習エンジニアとしてサービスの改善/開発を行っていただきます。主にデータを活用したアルゴリズムの開発とその基盤開発を担当していただきます。 - 機械学習技術を用いたサービス開発および改善。具体的には推薦システムや診断といったサービスに従事していただきます。 - 機械学習モデルの安定的な運用・基盤整備(ML pipeline/MLOps) - 香りのデータを活かしたチャレンジングな課題の解決(R&D) - データ利活用のためのデータ基盤整備(Data Engineering/Data pipeline) -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
#NAME?
1 - 50件/全218件
この条件の新着案件情報を受け取る
Hadoopのフリーランス案件に関するよくある質問
Hadoopのフリーランス案件・求人の月額単価相場を教えて下さい
Hadoopのフリーランス案件・求人はどのくらいありますか
Hadoopのフリーランス案件・求人でリモートワークや在宅ワークはできますか
Hadoopのフリーランス案件は未経験でも応募可能ですか?
Hadoopのフリーランス案件の商談や面談ではどのような内容が聞かれますか?
この条件の新着案件情報を受け取る
最高単価
130万円
最低単価
50万円
平均単価
82.7万円
2024年12月のHadoopのフリーランス案件・求人の月額単価の平均は82.7万円です。Hadoopのフリーランス案件・求人の年収の目安は992万円です。単価20万円台のHadoopのフリーランス案件・求人は0件、単価30万円台のHadoopのフリーランス案件・求人は0件、単価40万円台のHadoopのフリーランス案件・求人は0件、単価50万円台のHadoopのフリーランス案件・求人は4件、単価60万円台のHadoopのフリーランス案件・求人は33件、単価70万円台のHadoopのフリーランス案件・求人は37件、単価80万円台のHadoopのフリーランス案件・求人は26件、単価90万円台のHadoopのフリーランス案件・求人は31件、単価100万円台のHadoopのフリーランス案件・求人は37件です。※フリーランスボード調べ(2024年12月04日更新)
2024年12月のHadoopのフリーランス案件・求人の平均月額単価は82.7万円です。前月比で+0.3%(+0.2万円)と月単位でみるHadoopのフリーランス案件・求人の月額単価は増加傾向です。
2024年12月のHadoopのフリーランス案件・求人の想定平均年収は992.1万円です。前月比で+0.3%(+2.5万円)と月単位でみるHadoopのフリーランス案件・求人の想定年収は増加傾向です。
働き方 | 割合 | 前月比 |
---|---|---|
フルリモート | 31.8% | +5.5% |
一部リモート | 63.6% | -4.8% |
常駐 | 4.5% | -0.7% |
2024年12月のHadoopのフリーランス案件・求人におけるフルリモート案件・求人の割合は31.8%で前月比で+5.5%とやや増加傾向にあります。一部リモート案件・求人の割合は63.6%で前月比で-4.8%とやや減少傾向にあります。常駐案件・求人の割合は4.5%で前月比で-0.7%とやや減少傾向にあります。
■Hadoopとは Hadoopとは、大規模データの分散処理を行うためのオープンソースソフトウェアフレームワークで、膨大な量の非構造化データや半構造化データを高速に処理することができます。Hadoopは、分散ファイルシステムのHDFSと、並列処理フレームワークのMapReduceを中心に、各種ツールやライブラリで構成されています。 Hadoopの特徴として、コモディティハードウェア上に構築された分散クラスタ環境で動作すること、データの局所性を考慮した処理により高いスループットを実現していること、タスクの並列実行とフォールトトレランスによる高い処理効率と耐障害性を持つこと、スキーマオンリードによるデータの柔軟な取り扱いが可能なこと、Hiveなどの高水準言語によるデータ処理が行えること、HBaseによるリアルタイム性の高いデータアクセスが可能なこと、Mahoutなどの機械学習ライブラリが利用可能なことなどが挙げられます。 Hadoopができる開発は、ログ解析、Webクローリング、テキストマイニング、リコメンデーション、異常検知、予測分析、グラフ解析など、ビッグデータに関わる幅広い分野での活用が可能です。また、データレイク構築やETL処理の基盤としても利用されています。 Hadoopを活用している世界的サービスやプロダクトは、Yahoo!、Facebook、Twitter、LinkedIn、eBay、Spotify、Uber、Airbnb、Pinterest、Netflixなど、大規模なデータを扱うWebサービスやアプリケーションで広く採用されています。また、金融機関におけるリスク管理、小売業におけるマーケティング分析、通信事業者におけるネットワーク最適化、ヘルスケアにおける創薬支援など、様々な業種でHadoopを活用したビッグデータ活用が進んでいます。クラウドサービスとしてもAmazon EMR、Azure HDInsight、Google Cloud Dataprocなどが提供されており、オンプレミスだけでなくクラウド環境でのHadoopの利用も一般的になっています。ビッグデータ処理の標準的なプラットフォームとして広く普及しており、Hadoopエコシステムを構成する各種ツールやライブラリも活発に開発が行われています。 ■Hadoopを活用するメリット この章ではHadoopを活用するメリットについて説明します。 Hadoopを導入することにより、具体的に以下のようなメリットがあります。 ・HDFSによる分散ファイルシステムにより大規模データを効率的に格納できる ・MapReduceによる並列分散処理により大量データの一括処理が可能になる ・商用ディストリビューションの提供により導入・運用管理のハードルが下がる ・スキーマレスで非構造化データの格納にも対応可能 ・Hiveなどによるクエリ実行により既存のSQL知識の活用が可能 ・HBaseによるカラム指向のデータベースとしてリアルタイム性の高いデータアクセスが可能 ・OSSを中心とするエコシステムの豊富さにより拡張性に優れている Hadoopは大規模データ処理の基盤技術として広く普及しており、ビッグデータ活用の中核を担うプラットフォームとなっています。上記導入する上でのメリットを踏まえて、導入可否を検討することをおすすめします。 ■Hadoopを活用するデメリット この章ではHadoopを活用するデメリットについて説明します。 Hadoopを導入することにより、具体的に以下のようなデメリットがあります。 ・複雑なクラスタ構成の設計と運用に高度なスキルが必要とされる ・NameNodeへの負荷集中によりシステム全体のボトルネックになる恐れがある ・ディスクI/Oに依存するため他のメモリベースの処理基盤に比べ性能面で劣る ・MapReduceの記述にJavaの知識が必要でハードルが高い HadoopはメリットがHadoopはメリットが多いですが、運用管理の難しさや性能面の課題など注意すべき点がいくつかあることを理解しておきましょう。 Hadoop導入を今後検討している企業はHadoopを活用するメリットデメリットを比較した上で決めると後悔が少ないでしょう。