Sparkのフリーランス案件・求人一覧

1 - 30件/全347件

リモートOK

【Python】データ分析基盤の開発支援|通信業

75-110万円/月額
業務委託(フリーランス)

・ETLチームの一員として詳細設計〜UTまでの工程を担当 ・SEからのインプットを基にした設計及びPythonによるETLコーディング ・ワークフローシナリオ実装、シミュレーター/スタブ開発の実施 ・UT観点項目作成およびスクリプト作成、UT実施

案件の必須スキル

・Pythonを用いた開発経験10年以上 ・主体的にプロジェクトに関わった経験 ・DWHやETL等のビッグデータ実装への理解 ・Sparkの使用経験 ・Kinesisの使用経験

20日前 提供元-TechStock
リモートOK
面談1回

【Python/一部リモート】データ分析基盤及びETL基盤・システム開発支援案件

95万円/月額
業務委託(フリーランス)

・データ分析基盤及び、ETL基盤の開発、システム開発に携わっていただきます。 ・開発工程をメインで携わっていただきます。 ・詳細設計~テスト・運用まで一気通貫してご対応頂きます。

案件の必須スキル

・下記の開発言語いづれかでの開発経験2年以上又は言語問わずWebアプリの開発経験3年以上  -Python  -Scala  -C#  -Go

1ヶ月前 提供元-レバテックフリーランス
面談1回

【リモート相談可能】AI SaaSのデータエンジニア

80-100万円/月額
業務委託(フリーランス)

案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可

案件の必須スキル

• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル

8ヶ月前 提供元-1on1Freelance
面談1回

【リモート相談可能】AI SaaSのデータエンジニア

80-100万円/月額
業務委託(フリーランス)

案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可

案件の必須スキル

• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル

9ヶ月前 提供元-1on1Freelance

Python/某携帯キャリアのデータ関連受託開発案件・求人

80-100万円/月額
業務委託(フリーランス)

大手キャリアが提供するスーパー販促プログラムにおいて、加盟店(飲食店、小売等)が利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)のデータ関連の開発および、顧客企業との仕様調整、実現性検討を行っていただきます。 Python

案件の必須スキル

・AWSやGCP、Azureなどのクラウドにおける開発経験:2年以上 ・Pythonでの開発経験:3年以上 ・下記の項目を1つ以上満たす方  データベース、データウェアハウスを使ったデータ基盤の開発経験  データ処理パイプラインの開発経験  Apache Hadoop、Sparkなどの分散データ処理の開発経験

1年前 提供元-ギークスジョブ
リモートOK

【Azure/Databricks】データマネジメントシステムPJの業務支援|製造業|一部リモート

95-120万円/月額
業務委託(フリーランス)

・製造業向けのAzure Databricks案件 ・ベンダー側メンバーのITアーキテクトとして参画 ・Bronzeにあるデータを変換して次のSilver Layerに移行(Bronze⇒Silver⇒Gold) ・Gold LayerのデータをML(機械学習)などに活用、BIで分析(別チームが動いている) ・上記の業務内容に伴って以下の業務を実施予定  - 要件分析とソリューションアーキテクチャ設計及び仕様の作成 - データモデリングとデータアーキテクチャ設計 - ETL、データ統合、およびデータ移行の設計

案件の必須スキル

・Data関連の案件で複数参画経験 ・Azure Cloudの経験 ・Pythonのプログラミング経験 ・ジョブ、データブリックスノートブックのパフォーマンス最適化

1年前 提供元-TechStock

【Python】システムエンジニア★AIエージェントサービス開発

80-100万円/月額
業務委託(フリーランス)

携帯キャリアでのAIエージェントサービスのプラットフォーム開発を担当して頂きます。 【具体的業務】 ・プラットフォームの各種推定機能における  アルゴリズムの性能向上のためのデータ収集 ・ソース修正 ・学習データ作成 【直近の作業】 ・既存システムのSpark化にあたりユニットテスト  作成 ・辞書更新のスクリプト作成 (予定の名前に対してMeCabを使った形態素解析を  実行) ・自動車の位置情報解析スクリプト作成&改修 (滞留点を抽出、自宅職場推定、趣味嗜好推定、  等のスクリプト) 【開発環境】 ■OS ・MacOS(Windowsもあるが開発は基本Mac) ・AmazonLinux ※スクリプトをMacで開発→AmazonLinuxで動作確認 ■言語 ・Python2,3 (両方) ■その他 ・AmazonRedshift ・ApacheSpark ・Docker ・Git ・AWS(EC2、S3、Cloudtrail、cloudwatch、     codecommit 等)

案件の必須スキル

【必須】 ・AWS商用開発経験 ・Pythonによる開発経験 ・仕様書作成経験、能力 ・設計レビュー経験、能力 ・試験レビュー経験、能力 【尚可】 ・AWS spark開発経験 ・チーム内調整の経験、能力

1年前 提供元-ProEngineer

Python/動画プラットフォーム事業における分析業務案件・求人

65-100万円/月額
業務委託(フリーランス)

動画プラットフォーム事業にて取得しているデータの分析を担当して頂きます。日々蓄積される膨大なデータを用いて集計や統計分析を行いサービス改善、課題解決を行っていただきます。 <お任せする予定の作業> ・KPI集計や統計分析、ダッシュボードの構築 ・分析を実現するためのデータ収集や段取り ・企画との連携、サービスの開発支援・施策支援 ・他部署からの集計依頼や分析相談 Python

案件の必須スキル

・PythonやRなどを利用したデータ分析の経験:5年以上 ・SQLを用いたデータ分析やデータ集計の経験

1年前 提供元-ギークスジョブ

Scala/データ分析・アドテクプラットフォーム開発案件・求人

70-100万円/月額
業務委託(フリーランス)

エンジニア向けデータ統合プラットフォームのサーバーサイド開発をお願いいたします。 作業内容イメージとしては下記の内容をお任せする予定です。 ・k8s on GCPを使ったデータパイプライン基盤 (Scala)開発 ・Spark on k8s を使ったパイプライン内のサーバーレスコンピューティング基盤(Scala)開発 Scala

案件の必須スキル

・JavaもしくはScalaでの開発経験:3年以上 ・Git / Githubを利用した開発経験:3年以上

1年前 提供元-ギークスジョブ

Ruby・Java/ プラットフォーム設計開発案件・求人

75-110万円/月額
業務委託(フリーランス)

EC,動画などの複数コンテンツを開発する企業様にて、 コアプラットフォームの設計・開発をご担当頂きます。 大規模サービスを高度な技術力で支え、 安定したサービスを提供していく事がコアプラットフォームの役割です。 1700万人のユーザーを持つ巨大プラットフォームの根底にある、 プラットフォーム開発・インフラ整備・ガイドラインの整備・セキュリティや品質の確保等、業務は多岐にわたります。 (作業内容例) ・新ポータル開発 ・各基盤APIの設計開発 ・各サービスに跨る基盤の整備 ・高負荷対策フォロー ・業務効率化、開発 ・運用の自動化 ・品質・セキュリティの確保 ・新規サービスの立ち上げフォロー (募集背景) 組織を横断して新規プロジェクトを立ち上げる事になり、 ハイレベルのスキルをお持ちのエンジニアの方を募集し さらにレベルの高いプラットフォームを構築していきたいと考えています。 Java,Python,Ruby

案件の必須スキル

・Ruby on RailsでのWebアプリケーション、APIの開発経験(2年以上) ・Java,Phthon,rubyでの開発経験(2年以上) ・プロジェクトの立ち上げの経験 ・ミドルウェア(Apache,Tomcat,MySQL)に関する構築・運用・チューニング経験 ・Linuxに関する構築・運用・チューニング経験 ・WebAPIの利用・構築に関する知識・経験 ・クラウド基盤を利用した自動化経験 ・Ansibleなどの構成管理ツールの利用経験 ・L2/L3/L4通信に関する基本的な知識 ・Webセキュリティに関する基本的な知識

1年前 提供元-ギークスジョブ
リモートOK

【Shell/Ruby】データ分析基盤開発 @大崎

90-100万円/月額
業務委託(フリーランス)

社内データ分析基盤全般の開発・保守・運用。 →Shell/Ruby/Pythonで開発されているバッチ系システムが主です。 データレイクへの取り込み。 中間テーブル生成。 →追加機能開発 / 不具合調査・修正 / 社内ユーザーからの問合せ対応。 社内ユーザコミュニケーションや要件定義も含む。 インフラからコードデプロイまでを担当。 -ローカルで実装、Sandbox環境で動作検証、Productionデプロイ。 開発案件例。 中間テーブル生成ロジックの実装・メンテナンス。 - 売上集計テーブル、税理士向け事業中間集計テーブル等。 データレイクへ取り込むテーブル/カラムの追加。 - プロダクトDBやSalesforce等のデータ。 Redshift依存処理のリプレイス。

案件の必須スキル

Shell Script を使ったバッチ処理作成経験 Pythonでのプログラミング経験3年以上 SQLでクエリが書ける Git/GitHubの利用や、チケット管理 (JIRA, backlog等) での開発経験 クラウド環境のDWH利用経験 (Redshift, BigQuery, snowflake 等) docker / docker-compose の利用経験

1年前 提供元-indeco
面談1回

【Azure/リモート】インフラ・Azure構築案件

120-130万円/月額
業務委託(フリーランス)

在庫管理等の分散処理システムをHadoop on Sparkで組んでおり DMCから逆輸入による導入を実施。

案件の必須スキル

・Terraform、Ansible使用経験 ・Hadoopの知見/知識/経験 ・クラウドの知見/知識/経験 ・アーキテクト能力 ・システムを俯瞰してみる能力 ・テックリード能力

1年前 提供元-1on1Freelance
面談1回

【Python/リモート】バックエンド・データエンジニア募集

110-120万円/月額
業務委託(フリーランス)

大手飲食業のお客様に向けたデータ支援をいただきます。 原価や売上などの情報を利用し、データパイプラインの開発等を担当いただきます。 現場内にてデータエンジニアとして業務ご支援をいただきます。 ※データサイエンティスト/アナリストではなくデータエンジニアの募集となります 開発環境: Python, Java,EMR, Spark, PySpark Redshift, BigQuery,AWS Glue MySQL, PostgreSQL

案件の必須スキル

・AWSを利用したDWH、ETLの開発実務経験1年以上 ・Glueとredshiftの利用経験 ・要件定義、基本設計、詳細設計の経験

1年前 提供元-1on1Freelance
面談1回

【Python/リモート】バックエンド・データエンジニア募集

110-120万円/月額
業務委託(フリーランス)

大手飲食業のお客様に向けたデータ支援をいただきます。 原価や売上などの情報を利用し、データパイプラインの開発等を担当いただきます。 現場内にてデータエンジニアとして業務ご支援をいただきます。 ※データサイエンティスト/アナリストではなくデータエンジニアの募集となります 開発環境: Python, Java,EMR, Spark, PySpark Redshift, BigQuery,AWS Glue MySQL, PostgreSQL

案件の必須スキル

・AWSを利用したDWH、ETLの開発実務経験1年以上 ・Glueとredshiftの利用経験 ・要件定義、基本設計、詳細設計の経験

1年前 提供元-1on1Freelance

Go/SaaSアプリケーション開発案件・求人

70-90万円/月額
業務委託(フリーランス)

kubernetes 上に構築したアプリケーションの開発や運用業務に携わっていただきます。 ・アプリケーション開発 ・データ系アプリケーションのワークフロー開発 ・運用改善 Go

案件の必須スキル

・アプリケーション開発経験:3年以上 ・Goの開発経験:3年以上 ・顧客視点のコミュニケーションができる方

4ヶ月前 提供元-ギークスジョブ
リモートOK

Python/データエンジニア開発案件・求人

85-95万円/月額
業務委託(フリーランス)

大手自動車部品メーカー様の主に画像データをMLOpsで利用できるデータセットとして管理する基盤の構築をするプロジェクトでエンジニアを募集してます。 顧客の要望に応じ、データを加工しデータを用意したり、それに伴うデータベースの構築などご担当いただきます。また直近ではDWHの移行などの作業もございます。 ■得られるキャリア クライアントや他メンバーと同じチームを組んで、大規模データ処理基盤の構築を行っていただきます。最新の技術スタックに関わりながら大手自動車メーカーの社会プロジェクトへの貢献ができます。 クライアントとも同じメンバーとして働くことができるため密なコミュニケーションが取れるほか、改善や意見を率直に言える環境です。 フルリモート、コアタイムなしのフルフレックスで、稼働も落ち着いているため、ワークライフバランスを実現しやすい働き方が可能です。 Python

案件の必須スキル

・AWS上での開発経験 ・Python開発経験 ・Git操作が一通りできること ・DataBase(RDB)を活用したアプリケーションの開発経験 ・IaC(Terraformなど)を使用してクラウドインフラの使用経験 ・使ったことのない技術に関するキャッチアップ力

4ヶ月前 提供元-ギークスジョブ

Python/自社環境の新データ基盤への移行案件・求人

70-90万円/月額
業務委託(フリーランス)

データエンジニアとして、現在構築を進めている新データ基盤への移行を進めるための開発作業をお任せします。 <具体的な業務例> ・Databricks 上に構築された社内向けの新データ基盤の開発・運用 ・AWS 上に構築された旧データ基盤の運用 ・社内各所の要求に応じた dbt によるデータモデリング Python

案件の必須スキル

・pull request ベースでの Python 等のプログラム開発経験(5年以上) ・データ基盤の設計/構築、または運用経験(3年以上) ・SQL によるデータ分析やデータモデリングの経験(3年以上) ・AWS もしくは GCPを利用したサービスの構築経験(3年以上) ・dbt によるデータモデルやデータパイプラインの開発経験(1年以上)

4ヶ月前 提供元-ギークスジョブ

Go/SaaS開発案件・求人

70-90万円/月額
業務委託(フリーランス)

・kubernetes 上に構築したアプリケーションの開発や運用業務に携わっていただきます。 ・アプリケーション開発 ・データ系アプリケーションのワークフロー開発 ・運用改善 Go

案件の必須スキル

・Webアプリケーション経験:3年以上 ・Golang:2年以上 ・ユーザー視点のコミュニケーション

7ヶ月前 提供元-ギークスジョブ
リモートOK

Go/ECサイトSaaS開発案件・求人

70-90万円/月額
業務委託(フリーランス)

■案件概要: ・kubernetes 上に構築したアプリケーションの開発や運用業務に携わっていただきます。 ・アプリケーション開発 ・データ系アプリケーションのワークフロー開発 ・運用改善 ※フルリモート可 Go

案件の必須スキル

■必須スキル: ・ Webアプリケーション経験3年 ・ Golang2年 ・ ユーザー視点のコミュニケーション

8ヶ月前 提供元-ギークスジョブ
リモートOK

【Python/AWS】バックエンドエンジニア★薬局業界向け各プロダクトの開発

80-90万円/月額
業務委託(フリーランス)

当社の各プロダクトのバックエンド開発を行って頂きます。 AWSのマネージドサービスをフル活用しながら将来の事業の変化に合わせた技術の選定、設計、実装を進めます。 サーバーレス化、一部機能のマイクロサービス化、開発効率やスケーラビリティなども考慮しつつ、いかに早く効率的にデリバリーしてユーザに使って頂くかのバランスを取るかをチームで決定しながら開発を進めます。 また一方で、医療情報を扱う事業者として、他の分野と比較して信頼性・セキュリティなどに求められるレベルも高く、インフラ構成も含めて実装を進めます。 高い信頼性やパフォーマンスを維持しつつ安定して開発を継続するため、アプリケーションコード、AWSのインフラ、DevOps などをより良い形で実装、改善をして頂ける方を募集します。 ※エンド直案件となります。面談は弊社同席で1回行います。

案件の必須スキル

・汎用的な高いプログラミング能力 ・AWS/GCP/Azure などのクラウドサービスでの開発経験 ・RDBMS / NoSQLの知識・設計の経験 ・Webアプリケーションでのセキュリティ知識・運用・経験 ・CI/CD、ログ収集、監視などのDevOpsの経験 ・Infrastructure as Codeの知識・経験 【求める人物像】 ・チームで成果を出すことに喜びを感じる方 ・HRT(謙虚・尊敬・信頼)の姿勢を大切にしている方 ・医療に関心のある方 ・課題提起から実際に手を動かして解決してくれる方 ・新しい技術などに好奇心を持ち積極的に挑戦してくれる方 ・中長期でシステムを維持するためのコードの質や開発プロセスを大事にする方 ・アジャイルソフトウェア開発に関心のある方 ・あるべき論だけではなく、現状を踏まえた上で清濁併せのんでプロジェクト推進ができる方 ・主体的に動ける方

1年前 提供元-ProEngineer

Python/DWH/BI案件・求人

70-90万円/月額
業務委託(フリーランス)

・新規データマート要件定義、既存集計フロー効率化 ユーザの要望を聞いて新しいデータマートを作成したり既存の集計フローを自動化することで効率化を図ります ・データマート作成 既存帳票(Excel,CSV)からSQL作成、BIでの可視化 ・データのETL処理やETL処理のためのスクリプト・システム開発運用改善業務 AWSのGlue・Athena等を使用し、SQL・Pythonでコーディングし、S3にデータレイク、データマートを構築 既存の基盤改修・改善 ・データマート日次運用保守業務 Python

案件の必須スキル

・Pythonでの開発経験:3年以上 ・SQL(Window関数やUNION、副問い合わせを流暢に扱えること) ・アプリケーション開発経験

1年前 提供元-ギークスジョブ

Python/AI×SaaSプロダクトのバックエンドの開発案件・求人

70-90万円/月額
業務委託(フリーランス)

在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 自社サービスSaasの新バージョンをリリースし、エンタープライズとの契約が急激に増えている中で、多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。 Python

案件の必須スキル

・システム開発経験:3年以上 ・Pythonの実装経験:1年以上 ・Sparkなどの分散処理システムの経験 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)

1年前 提供元-ギークスジョブ

Python/在庫分析Saasのバックエンド(データ基盤)構築案件・求人

70-90万円/月額
業務委託(フリーランス)

在庫分析クラウドサービスを展開する企業にて、 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 自社サービスSaasの新バージョンをこの春リリースし、 エンタープライズとの契約が急激に増えている中で、 非常に多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をPythonやSQLを用いて作成し、 集計後、データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、 開発メンバー全員でスプリントを消化していく体制になります。 Python

案件の必須スキル

・システム開発経験:3年以上 ・Pythonの実装経験:1年以上 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)

1年前 提供元-ギークスジョブ

AWS/データ分析プラットフォーム運用案件・求人

68-91万円/月額
業務委託(フリーランス)

データ分析プラットフォーム (Databricks) の運用、AWS 利用コスト最適化に関わる業務を実施していただきます。 ▼想定される主な業務 ・利用実態 (既存のリソースの稼働状況、設定されている権限) の調査 ・各種設計ポリシーを元に AWS リソース全般の設計・実装 ・運用ドキュメント (GitHub, Google Workspace) の増補、改善 ・Redash, Databricks を使用したダッシュボードの実装 ・AWS コスト削減方針検討・ライフサイクルなどの実装 AWS

案件の必須スキル

・SQLに関する基本的な知識 ・AWSを利用した開発・運用経験:3年以上 ・Pythonを利用したアプリケーション開発経験:1年ほど

1年前 提供元-ギークスジョブ

Go/データ分析、アドテクプラットフォーム開発案件・求人

70-90万円/月額
業務委託(フリーランス)

自社プロダクトのデータ分析基盤(API / 解析基盤)の開発・運用を行って頂きます。 Go + Scala + Spark Stream + Hadoopなど最新の技術を積極的に取り入れながら、 データ分析基盤を1から開発する経験ができます。 (作業内容例) ・API、WEBアプリケーションの設計、開発、運用 ・リアルタイム分析基盤の設計、開発、運用 ・広告配信基盤の設計、開発、運用 ・機械学習を使った異常検知/未来予測基盤の設計、開発、運用 Go,Scala

案件の必須スキル

・Java, Ruby, Python, Golangなどのプログラミング言語での開発経験 ・Git / Githubを利用した開発経験 ・RDBMS(MySQL 又は Oracle)を使った開発経験

1年前 提供元-ギークスジョブ

Python・Spark/ライフログアプリのAI開発案件・求人

75-95万円/月額
業務委託(フリーランス)

ライフログアプリのビッグデータを活用した人工知能開発にアサイン頂きます。 スマホセンサーなどから上がってくる行動データやテキスト、 画像の解析をベースに、人工知能技術を使ってAIや機械学習を開発して頂きます。 Python,Scala

案件の必須スキル

・Python、Scalaのいずれかでの言語による開発 ・Spark(MLlib)、scikit-learn、TensorFlow、Keras、Chainerを使った機械学習 研究、開発 ・行動データを使った強化学習、推奨エンジン 研究、開発

1年前 提供元-ギークスジョブ
面談1回

【PHP、Perl、Python、Rubyのいずれか】4月~Web系アプリケーション開発案件

70-95万円/月額
業務委託(フリーランス)

IoT、RPA(ロボティック・プロセス・オートメーション)に関するデータ収集およびダッシュボート、および関連アプリケーションの開発を行っていただきます。 ダッシュボードについては、PowerBIやTableauなどのツールを利用する可能性もあります。

案件の必須スキル

・Webアプリケーションの開発経験が2年以上 ・AWS、AzureなどのPaaS利用経験があること ・PHP、Perl、Python、Rubyいずれかを利用した開発経験 ・HTML5、CSS、JavaScriptの基本的知識と利用経験 ・言語に対応したWebアプリケーションフレームワークの利用経験 ・データベース系ミドルウェアもしくはツールの利用経験

1年前 提供元-indeco
リモートOK
面談1回

【Python/AWS/リモート併用/30代活躍】データ連携アプリ開発(@渋谷)

90-万円/月額
業務委託(フリーランス)

DX事業会社様のデータ連携アプリ開発案件です。 開発中のシステムに対する追加機能の設計実装となります。 アプリケーション設計~総合テストをお願い致します。

案件の必須スキル

Pythonのご経験 AWS Fargateのご経験 データ処理、モダンアプリのキーワードに関するご経験 Pandas、Glue(Spark) Dockerイメージ作成のご経験 報連相をしっかり実施できること PJメンバーとゴールイメージを共有出来ること

1年前 提供元-indeco
面談1回

【C言語】電力会社向けシステム開発案件

60万円/月額
業務委託(フリーランス)

・電力会社向けのシステム開発案件に携わっていただきます。 ・ご担当いただく工程は、基本設計~結合試験です。

案件の必須スキル

・C言語を用いた業務経験 ・DBを扱った実務経験3年以上

1ヶ月前 提供元-レバテックフリーランス

Python/ビックデータの分析およびDB構築案件・求人

60-80万円/月額
業務委託(フリーランス)

某不動産情報サービス企業様が蓄積している大量データの分析、およびDB構築に関わるデータ調査、分析、データクレンジング、名寄せ処理が主な作業となります。 データ分析以外にも希望があればAWSのマネージドサービス(Glue、Lambda、MWAA等)を用いたデータレイク構築作業にも携わっていただくことが可能です。 Python

案件の必須スキル

・Pythonを利用した開発経験:2年以上 ・データ分析プロジェクトへの参画経験 ・問題点などの共有を自ら行うことができ、自発的に行動できる方 ・協調性があり、コミュニケーション能力の優れている方

11ヶ月前 提供元-ギークスジョブ

この条件の新着案件情報を受け取る

Sparkのフリーランス案件に関するよくある質問

Sparkのフリーランス案件・求人の月額単価相場を教えて下さい

Sparkのフリーランス案件・求人はどのくらいありますか

Sparkのフリーランス案件・求人でリモートワークや在宅ワークはできますか

Sparkのフリーランス案件は未経験でも応募可能ですか?

Sparkのフリーランス案件の商談や面談ではどのような内容が聞かれますか?

単価で絞り込み

50万~
60万~
70万~
80万~
90万~
100万~

エリアで絞り込み

東京都
神奈川県
愛知県
大阪府
兵庫県
福岡県

職種で絞り込み

バックエンドエンジニア
サーバーサイドエンジニア
システムエンジニア(SE)
プログラマー(PG)

この条件の新着案件情報を受け取る

Sparkのフリーランス案件・求人に関する情報

Sparkのフリーランス案件・求人単価相場

最高単価

170万円

最低単価

40万円

平均単価

79.4万円

2025年06月のSparkのフリーランス案件・求人一覧の月額単価の平均は79.4万円です。 Sparkのフリーランス案件・求人一覧の年収の目安は953万円です。 単価20万円台のSparkのフリーランス案件・求人一覧は0件、単価30万円台のSparkのフリーランス案件・求人一覧は0件、単価40万円台のSparkのフリーランス案件・求人一覧は2件、単価50万円台のSparkのフリーランス案件・求人一覧は7件、単価60万円台のSparkのフリーランス案件・求人一覧は45件、単価70万円台のSparkのフリーランス案件・求人一覧は47件、単価80万円台のSparkのフリーランス案件・求人一覧は31件、単価90万円台のSparkのフリーランス案件・求人一覧は32件、単価100万円台のSparkのフリーランス案件・求人一覧は29件です。 ※フリーランスボード調べ(2025年06月04日更新)

Sparkのフリーランス案件・求人の月額単価相場

2025年06月のSparkのフリーランス案件・求人一覧の平均月額単価は79.4万円です。前月比で+1.1%(+0.9万円)と月単位でみるSparkのフリーランス案件・求人一覧の月額単価は増加傾向です。

Sparkのフリーランス案件・求人の想定年収推移

2025年06月のSparkのフリーランス案件・求人一覧の想定平均年収は952.5万円です。前月比で+1.1%(+10.8万円)と月単位でみるSparkのフリーランス案件・求人一覧の想定年収は増加傾向です。

Sparkのフリーランス案件・求人リモートワーク比率

働き方割合前月比
フルリモート28.7%+0.5%
一部リモート52.5%-2.8%
常駐18.8%+2.3%

2025年06月のSparkのフリーランス案件・求人一覧におけるフルリモート案件・求人の割合は28.7%で前月比で+0.5%とやや増加傾向にあります。一部リモート案件・求人の割合は52.5%で前月比で-2.8%とやや減少傾向にあります。常駐案件・求人の割合は18.8%で前月比で+2.3%とやや増加傾向にあります。

Sparkのフリーランス案件・求人稼働日数比率

稼働可能日数割合前月比
週578.6%+3.9%
週415.3%-2.4%
週35.1%-1.2%
週21%-0.3%
週10%+0%

2025年06月のSparkのフリーランス案件・求人一覧における週5案件・求人の割合は78.6%で前月比で+3.9%とやや増加傾向にあります。週4案件・求人の割合は15.3%で前月比で-2.4%とやや減少傾向にあります。週3案件・求人の割合は5.1%で前月比で-1.2%とやや減少傾向にあります。週2案件・求人の割合は1%で前月比で-0.3%とやや減少傾向にあります。週1案件・求人の割合は0%で前月比で+0%と横ばい傾向にあります。

Spark業界別フリーランス案件・求人数

業界

案件数

通信

11件

広告

9件

EC

8件

サービス

8件

ゲーム

6件

Saas

4件

金融

4件

流通・小売

3件

エンタメ

3件

医療・福祉

2件

WEBサービス

2件

SIer・業務系

1件

保険

1件

toB

1件

toC

1件

教育

1件

Sparkの業界別フリーランス案件数を分析すると通信は11件、広告は9件、ECは8件、サービスは8件、ゲームは6件、Saasは4件、金融は4件、流通・小売は3件、エンタメは3件、医療・福祉は2件、WEBサービスは2件、SIer・業務系は1件、保険は1件、toBは1件、toCは1件、教育は1件でした。 Sparkの業界別フリーランス案件数の前月比較では通信は+0件(+0.0%)で前月から変化なし,広告は+0件(+0.0%)で前月から変化なし,ECは+0件(+0.0%)で前月から変化なし,サービスは+0件(+0.0%)で前月から変化なし,ゲームは+0件(+0.0%)で前月から変化なし,Saasは+0件(+0.0%)で前月から変化なし,金融は+0件(+0.0%)で前月から変化なし,流通・小売は+0件(+0.0%)で前月から変化なし,エンタメは+0件(+0.0%)で前月から変化なし,医療・福祉は+0件(+0.0%)で前月から変化なし,WEBサービスは+0件(+0.0%)で前月から変化なし,SIer・業務系は+0件(+0.0%)で前月から変化なし,保険は+0件(+0.0%)で前月から変化なし,toBは+0件(+0.0%)で前月から変化なし,toCは+0件(+0.0%)で前月から変化なし,教育は+0件(+0.0%)で前月から変化なしとなっています。 (※フリーランスボード調べ/2025年07月) 通信の業界は特にフリーランス案件数が多いことがわかります。

Spark職種別フリーランス案件・求人数

職種

案件数

インフラエンジニア

101件

データエンジニア

98件

データサイエンティスト

51件

バックエンドエンジニア

43件

データベースエンジニア

40件

サーバーサイドエンジニア

36件

データアナリスト

33件

AIエンジニア

26件

アプリエンジニア

19件

セキュリティエンジニア

19件

機械学習エンジニア

19件

その他

11件

プロジェクトマネージャー

10件

ネットワークエンジニア

7件

SRE

6件

PMO

5件

プランナー

5件

クラウドエンジニア

5件

フロントエンドエンジニア

4件

プロダクトマネージャー(PdM)

4件

Webディレクター

4件

Webデザイナー

4件

組込・制御エンジニア

4件

プログラマー(PG)

4件

フルスタックエンジニア

4件

ITコンサルタント

3件

エンジニアリングマネージャー

3件

マークアップエンジニア

3件

システムエンジニア(SE)

2件

VPoE

2件

Webマーケター

1件

ブロックチェーンエンジニア

1件

テクニカルサポート

1件

コーダー

1件

ヘルプデスク

1件

Sparkの職種別フリーランス案件数を分析するとインフラエンジニアは101件、データエンジニアは98件、データサイエンティストは51件、バックエンドエンジニアは43件、データベースエンジニアは40件、サーバーサイドエンジニアは36件、データアナリストは33件、AIエンジニアは26件、アプリエンジニアは19件、セキュリティエンジニアは19件、機械学習エンジニアは19件、その他は11件、プロジェクトマネージャーは10件、ネットワークエンジニアは7件、SREは6件、PMOは5件、プランナーは5件、クラウドエンジニアは5件、フロントエンドエンジニアは4件、プロダクトマネージャー(PdM)は4件、Webディレクターは4件、Webデザイナーは4件、組込・制御エンジニアは4件、プログラマー(PG)は4件、フルスタックエンジニアは4件、ITコンサルタントは3件、エンジニアリングマネージャーは3件、マークアップエンジニアは3件、システムエンジニア(SE)は2件、VPoEは2件、Webマーケターは1件、ブロックチェーンエンジニアは1件、テクニカルサポートは1件、コーダーは1件、ヘルプデスクは1件でした。 Sparkの職種別フリーランス案件数の前月比較ではインフラエンジニアは+11件(+12.2%)の大幅な増加,データエンジニアは+8件(+8.9%)の増加,データサイエンティストは+5件(+10.9%)の大幅な増加,バックエンドエンジニアは+5件(+13.2%)の大幅な増加,データベースエンジニアは+14件(+53.8%)の大幅な増加,サーバーサイドエンジニアは+5件(+16.1%)の大幅な増加,データアナリストは+4件(+13.8%)の大幅な増加,AIエンジニアは+0件(+0.0%)で前月から変化なし,アプリエンジニアは+5件(+35.7%)の大幅な増加,セキュリティエンジニアは+3件(+18.8%)の大幅な増加,機械学習エンジニアは+0件(+0.0%)で前月から変化なし,その他は+1件(+10.0%)の大幅な増加,プロジェクトマネージャーは+5件(+100.0%)の大幅な増加,ネットワークエンジニアは+3件(+75.0%)の大幅な増加,SREは+0件(+0.0%)で前月から変化なし,PMOは+2件(+66.7%)の大幅な増加,プランナーは+1件(+25.0%)の大幅な増加,クラウドエンジニアは+3件(+150.0%)の大幅な増加,フロントエンドエンジニアは+2件(+100.0%)の大幅な増加,プロダクトマネージャー(PdM)は+1件(+33.3%)の大幅な増加,Webディレクターは+0件(+0.0%)で前月から変化なし,Webデザイナーは+0件(+0.0%)で前月から変化なし,組込・制御エンジニアは+0件(+0.0%)で前月から変化なし,プログラマー(PG)は+1件(+33.3%)の大幅な増加,フルスタックエンジニアは+3件(+300.0%)の大幅な増加,ITコンサルタントは+2件(+200.0%)の大幅な増加,エンジニアリングマネージャーは+2件(+200.0%)の大幅な増加,マークアップエンジニアは+1件(+50.0%)の大幅な増加,システムエンジニア(SE)は+1件(+100.0%)の大幅な増加,VPoEは+0件(+0.0%)で前月から変化なし,Webマーケターは+0件(+0.0%)で前月から変化なし,ブロックチェーンエンジニアは+0件(+0.0%)で前月から変化なし,テクニカルサポートは+0件(+0.0%)で前月から変化なし,コーダーは+0件(+0.0%)で前月から変化なし,ヘルプデスクは+0件(+0.0%)で前月から変化なしとなっています。 (※フリーランスボード調べ/2025年07月) インフラエンジニアの職種は特にフリーランス案件数が多いことがわかります。

Sparkのフリーランス案件・求人一覧について

■Sparkとは Sparkとは、大規模データ処理のためのオープンソースのクラスタコンピューティングフレームワークで、Hadoop MapReduceよりも高速で汎用的な分散処理を実現します。Sparkはバッチ処理、ストリーム処理、インタラクティブクエリ、機械学習などの様々なワークロードに対応しています。 Sparkの特徴として、メモリ内での高速な処理が可能なこと、Resilient Distributed Dataset(RDD)による耐障害性とデータ不変性を持つこと、Spark SQL、Spark Streaming、MLlib、GraphXなどの豊富なライブラリを持つこと、Scala、Java、Python、Rから利用可能なこと、YARN、Mesos、Kubernetesなどの様々なクラスタマネージャ上で動作すること、データソースとしてHDFS、Cassandra、HBase、S3などに対応していることなどが挙げられます。 Sparkができる開発はビッグデータのバッチ処理、リアルタイムデータ処理、大規模データ分析、機械学習モデルの構築とスコアリング、グラフ分析、ETL処理、データウェアハウジングなどと幅広いです。 Sparkを活用している世界的サービスやプロダクトは、Amazon、eBay、Yahoo!、NASA、Alibaba、Tencent、Amazonなどの大企業や、データ分析プラットフォームのDatabricks、ビッグデータ分析基盤のCloudera、ストリーム処理基盤のConfluent Platformなどで採用されています。また、Sparkはデータサイエンスやデータエンジニアリングの分野で必須のスキルとなりつつあり、多くの企業や組織でデータ活用の中心的な役割を果たしています。 ■Sparkを活用するメリット この章ではSparkを活用するメリットについて説明します。 Sparkを習得することにより、具体的に以下のようなメリットがあります。 ・大規模データの分散処理を高速に行える ・MapReduceよりも高水準のAPIによる開発生産性の向上が見込める ・機械学習ライブラリMLlibによる大規模データの予測分析が可能 ・リアルタイムストリーム処理への対応により多様な処理要件に対応できる ・SQLライクなクエリ言語SparkSQLにより既存スキルの活用が可能 ・PythonやR言語との連携によりデータサイエンス業務との親和性が高い ・クラウドのマネージドサービスで容易に利用可能 Sparkは大規模データ処理基盤、データレイク構築、機械学習基盤など様々なビッグデータ関連業務で利用されており、フリーランス求人・案件数も増加傾向にあります。上記活用する上でのメリットを踏まえて、習得可否を検討することをおすすめします。 ■Sparkを活用するデメリット この章ではSparkを活用するデメリットについて説明します。 Sparkを習得することにより、具体的に以下のようなデメリットがあります。 ・大量リソースを必要とするためインフラコストが高くなる ・多数のクラスタノードを適切に設定・管理する運用負荷が高い ・デバッグやトラブルシューティングが難しい面がある ・安定性や互換性に関する情報が少なく判断が難しい Sparkはメリットが多いですが、インフラコストや運用管理の難しさなど注意すべき点がいくつかあることを理解しておきましょう。 Spark習得を今後検討しているフリーランスエンジニアはSparkを活用するメリットデメリットを比較した上で決めると後悔が少ないでしょう。