1 - 30件/全288件
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
大手キャリアが提供するスーパー販促プログラムにおいて、加盟店(飲食店、小売等)が利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)のデータ関連の開発および、顧客企業との仕様調整、実現性検討を行っていただきます。 Python
案件の必須スキル
・AWSやGCP、Azureなどのクラウドにおける開発経験:2年以上 ・Pythonでの開発経験:3年以上 ・下記の項目を1つ以上満たす方 データベース、データウェアハウスを使ったデータ基盤の開発経験 データ処理パイプラインの開発経験 Apache Hadoop、Sparkなどの分散データ処理の開発経験
HadoopやDWH関連のデータ分析基盤構築支援のサービスをメインで展開されている弊社顧客内の請負開発チーム内において、AWS ECS、Snowflake、Datadog、Databricks等を使用したデータ分析構築をご一緒に担当いただける方を募集しております。 ※顧客内に複数案件が同時に走っている為、技術者様のスキルセットに併せて、見合う案件を面談時にご紹介いたします AWS
案件の必須スキル
・データ基盤開発のご経験 ・AWSの構築経験 ・BIツール使用経験
動画プラットフォーム事業にて取得しているデータの分析を担当して頂きます。日々蓄積される膨大なデータを用いて集計や統計分析を行いサービス改善、課題解決を行っていただきます。 <お任せする予定の作業> ・KPI集計や統計分析、ダッシュボードの構築 ・分析を実現するためのデータ収集や段取り ・企画との連携、サービスの開発支援・施策支援 ・他部署からの集計依頼や分析相談 Python
案件の必須スキル
・PythonやRなどを利用したデータ分析の経験:5年以上 ・SQLを用いたデータ分析やデータ集計の経験
EC,動画などの複数コンテンツを開発する企業様にて、 コアプラットフォームの設計・開発をご担当頂きます。 大規模サービスを高度な技術力で支え、 安定したサービスを提供していく事がコアプラットフォームの役割です。 1700万人のユーザーを持つ巨大プラットフォームの根底にある、 プラットフォーム開発・インフラ整備・ガイドラインの整備・セキュリティや品質の確保等、業務は多岐にわたります。 (作業内容例) ・新ポータル開発 ・各基盤APIの設計開発 ・各サービスに跨る基盤の整備 ・高負荷対策フォロー ・業務効率化、開発 ・運用の自動化 ・品質・セキュリティの確保 ・新規サービスの立ち上げフォロー (募集背景) 組織を横断して新規プロジェクトを立ち上げる事になり、 ハイレベルのスキルをお持ちのエンジニアの方を募集し さらにレベルの高いプラットフォームを構築していきたいと考えています。 Java,Python,Ruby
案件の必須スキル
・Ruby on RailsでのWebアプリケーション、APIの開発経験(2年以上) ・Java,Phthon,rubyでの開発経験(2年以上) ・プロジェクトの立ち上げの経験 ・ミドルウェア(Apache,Tomcat,MySQL)に関する構築・運用・チューニング経験 ・Linuxに関する構築・運用・チューニング経験 ・WebAPIの利用・構築に関する知識・経験 ・クラウド基盤を利用した自動化経験 ・Ansibleなどの構成管理ツールの利用経験 ・L2/L3/L4通信に関する基本的な知識 ・Webセキュリティに関する基本的な知識
ビッグデータ関連部署において、 共通基盤となるレコメンドAPIの開発案件になります。 インフラ基盤はAWSを利用しており、 主にこのAWSの環境構築、運用、チューニングをご担当頂きます。 レコメンドアルゴリズムの実装、各サービスへの展開、装着を 一部補助頂く可能性もございます。 Java,AWS
案件の必須スキル
・AWSを利用した環境の構築 ・インフラの運用/チューニング(トラフィック予測/制御及びDB) ・Unix系OS(Linuxでも可)の使用経験1年以上 ・Javaを用いた開発の経験
葬祭サービスを提供する企業にてデータ分析基盤の開発を行っていただきます。 ビジネス上のつながりのデータや、ユーザーの行動データを活用するための分析基盤開発を行うことで、事業の成長を担っていただくことがミッションです。 【具体的な作業内容】 ・データのETL処理やETL処理のためのスクリプト、システム開発運用業務 ・データの傾向や内容を知るための集計、分析、可視化 ・AWSを用いた分析基盤構築および運用業務 ・データのセキュリティ対応 ・ドキュメント整備、啓蒙活動 ・Web広告の改善のユーザーの行動分析 ・TableauなどのBIツールなどの連携 Python
案件の必須スキル
・業務での開発経験:2年以上(言語不問) ・パブリッククラウドの利用経験:1年以上 ・SQLを用いた業務開発経験:1年以上
当社の各プロダクトのバックエンド開発を行って頂きます。 AWSのマネージドサービスをフル活用しながら将来の事業の変化に合わせた技術の選定、設計、実装を進めます。 サーバーレス化、一部機能のマイクロサービス化、開発効率やスケーラビリティなども考慮しつつ、いかに早く効率的にデリバリーしてユーザに使って頂くかのバランスを取るかをチームで決定しながら開発を進めます。 また一方で、医療情報を扱う事業者として、他の分野と比較して信頼性・セキュリティなどに求められるレベルも高く、インフラ構成も含めて実装を進めます。 高い信頼性やパフォーマンスを維持しつつ安定して開発を継続するため、アプリケーションコード、AWSのインフラ、DevOps などをより良い形で実装、改善をして頂ける方を募集します。 ※エンド直案件となります。面談は弊社同席で1回行います。
案件の必須スキル
・汎用的な高いプログラミング能力 ・AWS/GCP/Azure などのクラウドサービスでの開発経験 ・RDBMS / NoSQLの知識・設計の経験 ・Webアプリケーションでのセキュリティ知識・運用・経験 ・CI/CD、ログ収集、監視などのDevOpsの経験 ・Infrastructure as Codeの知識・経験 【求める人物像】 ・チームで成果を出すことに喜びを感じる方 ・HRT(謙虚・尊敬・信頼)の姿勢を大切にしている方 ・医療に関心のある方 ・課題提起から実際に手を動かして解決してくれる方 ・新しい技術などに好奇心を持ち積極的に挑戦してくれる方 ・中長期でシステムを維持するためのコードの質や開発プロセスを大事にする方 ・アジャイルソフトウェア開発に関心のある方 ・あるべき論だけではなく、現状を踏まえた上で清濁併せのんでプロジェクト推進ができる方 ・主体的に動ける方
不動産業界向けデータプラットフォームシステムの基盤構築に携わっていただきます。 ・高速かつ容易な分析を可能とする基盤のアーキテクチャ検討 ・データ分析基盤の構築、運用 ・データソース間の移送、統合 ・データ分析を必要とするビジネスメンバーのサポート、分析作業 AWS
案件の必須スキル
・AWS基盤構築経験:3年以上 ・テーブル設計、DBチューニングの実務経験 ・SQLを使ったデータ集計、データ分析業務の経験 ・RDBMSに対する知識
データ分析プラットフォーム (Databricks) の運用、AWS 利用コスト最適化に関わる業務を実施していただきます。 ▼想定される主な業務 ・利用実態 (既存のリソースの稼働状況、設定されている権限) の調査 ・各種設計ポリシーを元に AWS リソース全般の設計・実装 ・運用ドキュメント (GitHub, Google Workspace) の増補、改善 ・Redash, Databricks を使用したダッシュボードの実装 ・AWS コスト削減方針検討・ライフサイクルなどの実装 AWS
案件の必須スキル
・SQLに関する基本的な知識 ・AWSを利用した開発・運用経験:3年以上 ・Pythonを利用したアプリケーション開発経験:1年ほど
自社プロダクトのデータ分析基盤(API / 解析基盤)の開発・運用を行って頂きます。 Go + Scala + Spark Stream + Hadoopなど最新の技術を積極的に取り入れながら、 データ分析基盤を1から開発する経験ができます。 (作業内容例) ・API、WEBアプリケーションの設計、開発、運用 ・リアルタイム分析基盤の設計、開発、運用 ・広告配信基盤の設計、開発、運用 ・機械学習を使った異常検知/未来予測基盤の設計、開発、運用 Go,Scala
案件の必須スキル
・Java, Ruby, Python, Golangなどのプログラミング言語での開発経験 ・Git / Githubを利用した開発経験 ・RDBMS(MySQL 又は Oracle)を使った開発経験
アドネットワークサービスの広告配信アルゴリズム分析基盤の構築をご担当いただきます。 同部署にはアドテクエンジニアも多く所属しており、ディスカッションを行いながらアルゴリズム構築となります。 Python,DB(インフラ)
案件の必須スキル
大規模データ分析経験 分析用ソフトウェアの利用経験
社内ソーシャルゲームシステムにおいて、 社内DBの要件定義、設計、構築、運用といった データベースの全般業務を担当して頂きます。 ・データベースシステムの選定(ハードウェア、OS、ストレージ、DB統合監視ソフトなど) ・データベースの企画、設計(論理・物理)、構築、運用管理 ・データベースの移行、検証、性能試験 ・データベースのパフォーマンスチューニングおよびトラブルシューティング ・データベースの標準化(SQLコーディング、設計・構築方針) ・データベースプログラムの開発(ストアドプロシージャ、DB性能監視プログラムなど) DB(インフラ)
案件の必須スキル
・MySQLデータベースに関するDBA経験3年以上 ・Linux環境でのDBA実務経験がある方
自社サービスに関わる広告配信周りの開発を行っていただきます。 広告配信サーバーの開発や、広告配信ツール、 配信アルゴリズムの最適化やインフラ構築など、 フルスタックエンジニアとして活躍していただきます。 [開発環境] Ruby on Rails、nginx、Hadoop、Redis、memcached MySQL、MongoDB など Ruby,NW(インフラ),サーバ(インフラ)
案件の必須スキル
・Ruby on Rails を使用したWEBアプリケーションの開発経験 ・サーバー構築などWebサービスを支えるインフラ対応経験
メディアプランニングシステム、アクセス解析ツールなどのマーケティングソリューションやPC/スマートフォン向け広告配信システムなど、 お客様の既存事業、新規事業を支えるシステムの設計・開発・運用を担当します。 広告サービス広告主向け、媒体向けに分かれており、プロダクトは20個以上あります。 (広告プランニング・広告業務サポート、第三者配信プラットフォーム/クリエイティブの最適化、、リッチ広告配信、ターゲティング広告、データベース広告配信etc) 要望、経験に合わせ、下記5つのいずれかを担当します。 ・広告配信プラットフォーム ・インターネット広告プランニングシステム ・新規プロダクト作成 ・ビックデータ解析(DNP) ・インフラ Java,Ruby,C#.NET,サーバ(インフラ)
案件の必須スキル
※担当プロダクトにより要件が異なります (広告配信プラットフォーム) ・C、Javaの経験 (インターネット広告プランニングシステム) ・.NET(FW2.0~4.0)、SQLserver2008以降~の経験 (新規プロダクト作成) ・Ruby2系、Rails4系の経験 (ビックデータ解析) ・Hadoop、Hiveの経験 (インフラ) ・NW、Sever(RedHat、Windows)、MySQLのいずれかに精通している方
IoT、RPA(ロボティック・プロセス・オートメーション)に関するデータ収集およびダッシュボート、および関連アプリケーションの開発を行っていただきます。 ダッシュボードについては、PowerBIやTableauなどのツールを利用する可能性もあります。
案件の必須スキル
・Webアプリケーションの開発経験が2年以上 ・AWS、AzureなどのPaaS利用経験があること ・PHP、Perl、Python、Rubyいずれかを利用した開発経験 ・HTML5、CSS、JavaScriptの基本的知識と利用経験 ・言語に対応したWebアプリケーションフレームワークの利用経験 ・データベース系ミドルウェアもしくはツールの利用経験
案件概要:BtoB向け AIサービス 移行プロジェクト(AWS,Kubernetes) 業務内容: プライベートクラウドで管理されたKubernetes環境やHadoop環境を パブリッククラウドへ移行する。移行に伴い主に下記業務を想定 ・パブリッククラウドのインフラ設計・構築 ・Kubernetes コンテナ環境の設計・構築 ・CI/CD、モニタリング環境の設計・構築 勤務時間:10:00-19:00※相談可 場所:渋谷※フルリモート 外国籍:応相談 ビジネスレベル、日本在住の方のみ
案件の必須スキル
・パブリッククラウド(AWS、GCP、Azure等)を利用したインフラ設計・構築・運用経験 ・Kubernetesを使用したコンテナ環境の設計・構築・運用経験 ・IaC、CI/CD、Observabilityの考え方を取り入れたインフラ設計・構築・運用経験
案件概要:BtoB向け AIサービス 移行プロジェクト(AWS,Kubernetes) 業務内容: プライベートクラウドで管理されたKubernetes環境やHadoop環境を パブリッククラウドへ移行する。移行に伴い主に下記業務を想定 ・パブリッククラウドのインフラ設計・構築 ・Kubernetes コンテナ環境の設計・構築 ・CI/CD、モニタリング環境の設計・構築 勤務時間:10:00-19:00※相談可 場所:渋谷※フルリモート 外国籍:応相談 ビジネスレベル、日本在住の方のみ
案件の必須スキル
・パブリッククラウド(AWS、GCP、Azure等)を利用したインフラ設計・構築・運用経験 ・Kubernetesを使用したコンテナ環境の設計・構築・運用経験 ・IaC、CI/CD、Observabilityの考え方を取り入れたインフラ設計・構築・運用経験
【案件概要】 とあるtoB向けサービスを展開する企業様にて ・プライベートクラウドで管理されたKubernetes環境やHadoop環境のパブリッククラウドへの移行 移行に伴い主に下記業務を想定しております。 ・パブリッククラウドのインフラ設計・構築 ・Kubernetes コンテナ環境の設計・構築 ・CI/CD、モニタリング環境の設計・構築 【弊社について】 コンサルティング支援を母体とした日本企業のDX(デジタルトランスフォーメーション)を支援する企業です。 事業内容は多岐に渡り、顧客の課題やニーズに合わせて、DX戦略の立案から実行、その後の運用までを総合的にサポートしています。 具体的には、以下のようなサービスを提供しています。 ・DX戦略策定支援:顧客の現状を分析し、DXビジョンや戦略の策定を支援します。 ・デジタルマーケティング支援:データ分析に基づいたWebサイト構築やマーケティングオートメーション導入などを支援します。 ・システム開発・運用:顧客のニーズに合わせたシステム開発や、既存システムのクラウド移行などを支援します。 ・新規事業開発支援:顧客の新規事業創出を、アイデア創出から事業計画策定、実行まで支援します。 【勤務形態】 ・フルリモート 【目安の稼働時間】 ・10:00〜19:00(相談の上調整可)
案件の必須スキル
・パブリッククラウド(AWS、GCP、Azure等)を利用したインフラ設計・構築・運用経験 ・Kubernetesを使用したコンテナ環境の設計・構築・運用経験:3年以上程度 ・IaC、CI/CD、Observabilityの考え方を取り入れたインフラ設計・構築・運用経験
某不動産情報サービス企業様が蓄積している大量データの分析、およびDB構築に関わるデータ調査、分析、データクレンジング、名寄せ処理が主な作業となります。 データ分析以外にも希望があればAWSのマネージドサービス(Glue、Lambda、MWAA等)を用いたデータレイク構築作業にも携わっていただくことが可能です。 Python
案件の必須スキル
・Pythonを利用した開発経験:2年以上 ・データ分析プロジェクトへの参画経験 ・問題点などの共有を自ら行うことができ、自発的に行動できる方 ・協調性があり、コミュニケーション能力の優れている方
同社で運営する広告配信アプリの新規開発に携わっていただきます。 データベース、ネットワーク等、各分野のスペシャリストが在籍しており、 最新技術に触れられる点が魅力です。
案件の必須スキル
【必須】 ・下記いずれかでの開発経験 (Scala、Java、PHP、Ruby) 【尚良】 ・広告業界の知識、経験 ・Hadoopの使用経験
【業務内容】 大手テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属していただきます。 ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。 インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。 アドテクやクラウド、データ収集/分析関連の最新技術を学び、経験することができ、かつテレビ局特有の高アクセス環境で技術的なチャレンジができる現場です。
案件の必須スキル
【必須スキル】 ・SQLを使ったDBプログラミングの開発経験 ・Python、PHP、JAVA、Golangのいずれかの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・AirflowやDigDagなどのワークフロー管理ツールの利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属して頂きます。 【具体的業務】 ・ビッグデータ基盤システムの構築、開発、保守 ・収集データを基にした社内外に向けた分析ツールの開発 ・機会学習システム(社外製品)を内製化して再構築 【開発環境】 ・言語:PHP(Laravel)、Python ・インフラ:AWS ・情報共有ツール:Backlog、Slack、 Googleハングアウト ・その他:Hadoopエコシステム、HDFS、MapReduce、 Hive、Pig、Presto、Memcached、Redis、 Ansible、Jenkins、Chef、Docker
案件の必須スキル
【必須】 ・Python、PHPのいずれかの開発経験 ・SQLを使ったDBプログラミングの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
1 - 30件/全288件
この条件の新着案件情報を受け取る
単価で絞り込み
エリアで絞り込み
職種で絞り込み
この条件の新着案件情報を受け取る
最高単価
130万円
最低単価
50万円
平均単価
79.8万円
2025年06月のHadoopのフリーランス案件・求人一覧の月額単価の平均は79.8万円です。 Hadoopのフリーランス案件・求人一覧の年収の目安は957万円です。 単価20万円台のHadoopのフリーランス案件・求人一覧は0件、単価30万円台のHadoopのフリーランス案件・求人一覧は0件、単価40万円台のHadoopのフリーランス案件・求人一覧は0件、単価50万円台のHadoopのフリーランス案件・求人一覧は4件、単価60万円台のHadoopのフリーランス案件・求人一覧は36件、単価70万円台のHadoopのフリーランス案件・求人一覧は39件、単価80万円台のHadoopのフリーランス案件・求人一覧は33件、単価90万円台のHadoopのフリーランス案件・求人一覧は33件、単価100万円台のHadoopのフリーランス案件・求人一覧は23件です。 ※フリーランスボード調べ(2025年06月04日更新)
2025年06月のHadoopのフリーランス案件・求人一覧の平均月額単価は79.8万円です。前月比で+0.1%(+0.1万円)と月単位でみるHadoopのフリーランス案件・求人一覧の月額単価は増加傾向です。
2025年06月のHadoopのフリーランス案件・求人一覧の想定平均年収は957.3万円です。前月比で+0.1%(+1万円)と月単位でみるHadoopのフリーランス案件・求人一覧の想定年収は増加傾向です。
働き方 | 割合 | 前月比 |
---|---|---|
フルリモート | 35.1% | +1.8% |
一部リモート | 40.4% | -0.4% |
常駐 | 24.6% | -1.4% |
2025年06月のHadoopのフリーランス案件・求人一覧におけるフルリモート案件・求人の割合は35.1%で前月比で+1.8%とやや増加傾向にあります。一部リモート案件・求人の割合は40.4%で前月比で-0.4%とやや減少傾向にあります。常駐案件・求人の割合は24.6%で前月比で-1.4%とやや減少傾向にあります。
稼働可能日数 | 割合 | 前月比 |
---|---|---|
週5 | 82.2% | -0.5% |
週4 | 12.3% | +0.3% |
週3 | 4.1% | +0.1% |
週2 | 1.4% | +0.1% |
週1 | 0% | +0% |
2025年06月のHadoopのフリーランス案件・求人一覧における週5案件・求人の割合は82.2%で前月比で-0.5%とやや減少傾向にあります。週4案件・求人の割合は12.3%で前月比で+0.3%とやや増加傾向にあります。週3案件・求人の割合は4.1%で前月比で+0.1%とやや増加傾向にあります。週2案件・求人の割合は1.4%で前月比で+0.1%とやや増加傾向にあります。週1案件・求人の割合は0%で前月比で+0%と横ばい傾向にあります。
業界 | 案件数 |
---|---|
広告 | 17件 |
EC | 11件 |
通信 | 8件 |
サービス | 8件 |
ゲーム | 5件 |
エンタメ | 3件 |
製造・メーカー | 3件 |
WEBサービス | 3件 |
流通・小売 | 2件 |
金融 | 2件 |
Saas | 1件 |
医療・福祉 | 1件 |
toB | 1件 |
toC | 1件 |
Hadoopの業界別フリーランス案件数を分析すると広告は17件、ECは11件、通信は8件、サービスは8件、ゲームは5件、エンタメは3件、製造・メーカーは3件、WEBサービスは3件、流通・小売は2件、金融は2件、Saasは1件、医療・福祉は1件、toBは1件、toCは1件でした。 Hadoopの業界別フリーランス案件数の前月比較では広告は+0件(+0.0%)で前月から変化なし,ECは+0件(+0.0%)で前月から変化なし,通信は+0件(+0.0%)で前月から変化なし,サービスは+0件(+0.0%)で前月から変化なし,ゲームは+0件(+0.0%)で前月から変化なし,エンタメは+0件(+0.0%)で前月から変化なし,製造・メーカーは+0件(+0.0%)で前月から変化なし,WEBサービスは+0件(+0.0%)で前月から変化なし,流通・小売は+0件(+0.0%)で前月から変化なし,金融は+0件(+0.0%)で前月から変化なし,Saasは+0件(+0.0%)で前月から変化なし,医療・福祉は+0件(+0.0%)で前月から変化なし,toBは+0件(+0.0%)で前月から変化なし,toCは+0件(+0.0%)で前月から変化なしとなっています。 (※フリーランスボード調べ/2025年07月) 広告の業界は特にフリーランス案件数が多いことがわかります。
職種 | 案件数 |
---|---|
インフラエンジニア | 76件 |
データエンジニア | 72件 |
データサイエンティスト | 42件 |
バックエンドエンジニア | 32件 |
データベースエンジニア | 25件 |
サーバーサイドエンジニア | 24件 |
データアナリスト | 21件 |
AIエンジニア | 16件 |
アプリエンジニア | 15件 |
その他 | 15件 |
セキュリティエンジニア | 14件 |
機械学習エンジニア | 14件 |
ネットワークエンジニア | 10件 |
Webディレクター | 7件 |
プランナー | 6件 |
フロントエンドエンジニア | 5件 |
組込・制御エンジニア | 5件 |
SRE | 5件 |
プロジェクトマネージャー | 4件 |
PMO | 3件 |
Webデザイナー | 3件 |
VPoE | 2件 |
コーダー | 2件 |
DBA | 2件 |
マークアップエンジニア | 2件 |
プロダクトマネージャー(PdM) | 1件 |
イラストレーター | 1件 |
情報システム | 1件 |
社内SE | 1件 |
ブロックチェーンエンジニア | 1件 |
システムエンジニア(SE) | 1件 |
クラウドエンジニア | 1件 |
エンジニアリングマネージャー | 1件 |
フルスタックエンジニア | 1件 |
プロデューサー | 1件 |
Hadoopの職種別フリーランス案件数を分析するとインフラエンジニアは76件、データエンジニアは72件、データサイエンティストは42件、バックエンドエンジニアは32件、データベースエンジニアは25件、サーバーサイドエンジニアは24件、データアナリストは21件、AIエンジニアは16件、アプリエンジニアは15件、その他は15件、セキュリティエンジニアは14件、機械学習エンジニアは14件、ネットワークエンジニアは10件、Webディレクターは7件、プランナーは6件、フロントエンドエンジニアは5件、組込・制御エンジニアは5件、SREは5件、プロジェクトマネージャーは4件、PMOは3件、Webデザイナーは3件、VPoEは2件、コーダーは2件、DBAは2件、マークアップエンジニアは2件、プロダクトマネージャー(PdM)は1件、イラストレーターは1件、情報システムは1件、社内SEは1件、ブロックチェーンエンジニアは1件、システムエンジニア(SE)は1件、クラウドエンジニアは1件、エンジニアリングマネージャーは1件、フルスタックエンジニアは1件、プロデューサーは1件でした。 Hadoopの職種別フリーランス案件数の前月比較ではインフラエンジニアは+6件(+8.6%)の増加,データエンジニアは-3件(-4.0%)でわずかに減少,データサイエンティストは+0件(+0.0%)で前月から変化なし,バックエンドエンジニアは+0件(+0.0%)で前月から変化なし,データベースエンジニアは+1件(+4.2%)でわずかに増加,サーバーサイドエンジニアは+0件(+0.0%)で前月から変化なし,データアナリストは+0件(+0.0%)で前月から変化なし,AIエンジニアは+0件(+0.0%)で前月から変化なし,アプリエンジニアは-1件(-6.3%)の減少,その他は+1件(+7.1%)の増加,セキュリティエンジニアは-1件(-6.7%)の減少,機械学習エンジニアは+0件(+0.0%)で前月から変化なし,ネットワークエンジニアは+1件(+11.1%)の大幅な増加,Webディレクターは+0件(+0.0%)で前月から変化なし,プランナーは+0件(+0.0%)で前月から変化なし,フロントエンドエンジニアは+0件(+0.0%)で前月から変化なし,組込・制御エンジニアは+0件(+0.0%)で前月から変化なし,SREは+0件(+0.0%)で前月から変化なし,プロジェクトマネージャーは+1件(+33.3%)の大幅な増加,PMOは+0件(+0.0%)で前月から変化なし,Webデザイナーは+0件(+0.0%)で前月から変化なし,VPoEは+0件(+0.0%)で前月から変化なし,コーダーは+0件(+0.0%)で前月から変化なし,DBAは+0件(+0.0%)で前月から変化なし,マークアップエンジニアは+0件(+0.0%)で前月から変化なし,プロダクトマネージャー(PdM)は+0件(+0.0%)で前月から変化なし,イラストレーターは+0件(+0.0%)で前月から変化なし,情報システムは+0件(+0.0%)で前月から変化なし,社内SEは+0件(+0.0%)で前月から変化なし,ブロックチェーンエンジニアは+0件(+0.0%)で前月から変化なし,システムエンジニア(SE)は-1件(-50.0%)の大幅な減少,クラウドエンジニアは+0件(+0.0%)で前月から変化なし,エンジニアリングマネージャーは-1件(-50.0%)の大幅な減少,フルスタックエンジニアは-1件(-50.0%)の大幅な減少,プロデューサーは+0件(+0.0%)で前月から変化なしとなっています。 (※フリーランスボード調べ/2025年07月) インフラエンジニアの職種は特にフリーランス案件数が多いことがわかります。
■Hadoopとは Hadoopとは、大規模データの分散処理を行うためのオープンソースソフトウェアフレームワークで、膨大な量の非構造化データや半構造化データを高速に処理することができます。Hadoopは、分散ファイルシステムのHDFSと、並列処理フレームワークのMapReduceを中心に、各種ツールやライブラリで構成されています。 Hadoopの特徴として、コモディティハードウェア上に構築された分散クラスタ環境で動作すること、データの局所性を考慮した処理により高いスループットを実現していること、タスクの並列実行とフォールトトレランスによる高い処理効率と耐障害性を持つこと、スキーマオンリードによるデータの柔軟な取り扱いが可能なこと、Hiveなどの高水準言語によるデータ処理が行えること、HBaseによるリアルタイム性の高いデータアクセスが可能なこと、Mahoutなどの機械学習ライブラリが利用可能なことなどが挙げられます。 Hadoopができる開発は、ログ解析、Webクローリング、テキストマイニング、リコメンデーション、異常検知、予測分析、グラフ解析など、ビッグデータに関わる幅広い分野での活用が可能です。また、データレイク構築やETL処理の基盤としても利用されています。 Hadoopを活用している世界的サービスやプロダクトは、Yahoo!、Facebook、Twitter、LinkedIn、eBay、Spotify、Uber、Airbnb、Pinterest、Netflixなど、大規模なデータを扱うWebサービスやアプリケーションで広く採用されています。また、金融機関におけるリスク管理、小売業におけるマーケティング分析、通信事業者におけるネットワーク最適化、ヘルスケアにおける創薬支援など、様々な業種でHadoopを活用したビッグデータ活用が進んでいます。クラウドサービスとしてもAmazon EMR、Azure HDInsight、Google Cloud Dataprocなどが提供されており、オンプレミスだけでなくクラウド環境でのHadoopの利用も一般的になっています。ビッグデータ処理の標準的なプラットフォームとして広く普及しており、Hadoopエコシステムを構成する各種ツールやライブラリも活発に開発が行われています。 ■Hadoopを活用するメリット この章ではHadoopを活用するメリットについて説明します。 Hadoopを導入することにより、具体的に以下のようなメリットがあります。 ・HDFSによる分散ファイルシステムにより大規模データを効率的に格納できる ・MapReduceによる並列分散処理により大量データの一括処理が可能になる ・商用ディストリビューションの提供により導入・運用管理のハードルが下がる ・スキーマレスで非構造化データの格納にも対応可能 ・Hiveなどによるクエリ実行により既存のSQL知識の活用が可能 ・HBaseによるカラム指向のデータベースとしてリアルタイム性の高いデータアクセスが可能 ・OSSを中心とするエコシステムの豊富さにより拡張性に優れている Hadoopは大規模データ処理の基盤技術として広く普及しており、ビッグデータ活用の中核を担うプラットフォームとなっています。上記導入する上でのメリットを踏まえて、導入可否を検討することをおすすめします。 ■Hadoopを活用するデメリット この章ではHadoopを活用するデメリットについて説明します。 Hadoopを導入することにより、具体的に以下のようなデメリットがあります。 ・複雑なクラスタ構成の設計と運用に高度なスキルが必要とされる ・NameNodeへの負荷集中によりシステム全体のボトルネックになる恐れがある ・ディスクI/Oに依存するため他のメモリベースの処理基盤に比べ性能面で劣る ・MapReduceの記述にJavaの知識が必要でハードルが高い HadoopはメリットがHadoopはメリットが多いですが、運用管理の難しさや性能面の課題など注意すべき点がいくつかあることを理解しておきましょう。 Hadoop導入を今後検討している企業はHadoopを活用するメリットデメリットを比較した上で決めると後悔が少ないでしょう。