Sparkのフリーランス案件・求人

1 - 50件/全198件

面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

1日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

1日前
提供元-Midworks
リモートOK

【Python/AWS/フルリモート可能】調剤薬局向けサービス管理ツールの案件・求人

65-70万円/月額
業務委託(フリーランス)

◆業務概要 ・RDBのデータベース設計 ・GlueJobでPythonを利用したETL処理の設計・開発 ・APIGateway、Lambdaを利用したAPI開発 調剤薬局向けサービスを複数提供している企業にてサービスを総括的に管理する管理コンソールの開発業務をご担当頂きます。 管理コンソールに必要な機能の集約、追加実装等をお願い致します。 ◆就業形態について 現状、開発メンバーのほとんどはフルリモートにて業務を行っております。 週に何日かご出社をご希望の際にはご相談ください。 ◆補足 現場チームについては、 様々な分野での経験を持つ少数精鋭のメンバーが集まっております。 他部署を含め業務委託のエンジニアも複数名在籍しており、社員エンジニアと垣根のない働きやすい環境です。 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【首都圏在住の方、活躍中!】

案件の必須スキル

・Pythonの利用経験(基本設計~テスト) ・AWSの各サービスの運用経験 ・DWH(データウェアハウス)及び、データマート向けのETLジョブ開発

3日前
提供元-TechReach
リモートOK

【Python/フルリモート可能】Saasプロダクトデータ基盤構築の案件・求人

65-70万円/月額
業務委託(フリーランス)

在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【首都圏在住の方、活躍中!】

案件の必須スキル

・Webシステム設計~開発経験5年以上ある方 ・Python開発経験2年以上ある方 ・Sparkなどの分散処理システムの経験2年以上ある方 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方

3日前
提供元-TechReach
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データレイクエンジニアとしてご活躍いただきます。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

4日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

4日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

4日前
提供元-Midworks

【AWS(EMR)/週5日/フルリモート】データ蓄積基盤構築開発業務案件

45-75万円/月額
業務委託(フリーランス)

■案件概要 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更します。 その後、既存データを新基盤に移行する作業も実施予定です。 ■作業場所 基本リモート想定ですが、出社の際は最寄り駅が大崎駅です。 ■就業時間 9:30~18:00(休憩1時間) ■残業時間 月間平均20時間程度を想定 ■就業曜日 月曜日~金曜日 ■参画時期 6月~1年程度想定

案件の必須スキル

・AWS上でのデータ蓄積基盤構築経験 ・AWSのデータ系サービス(Redshift/Sparkなど)の利用経験 ・Athena/EMR/Hadoop/Hiveなどを利用した業務経験 ・SQLの業務経験(クエリ設計&作成、データやテーブル調査) ・設計書/テスト仕様書の作成経

4日前
提供元-クラウドテック
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データレイクエンジニアとしてご活躍いただきます。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

5日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

5日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データレイクエンジニアとしてご活躍いただきます。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

6日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

6日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データレイクエンジニアとしてご活躍いただきます。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

6日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

7日前
提供元-Midworks

Python/アドテクノロジーにおけるデータ分析案件・求人

65-75万円/月額
業務委託(フリーランス)

インターネット広告のログデータなどを用いたデータ分析業務、およびそのデータ分析のためのツール開発などを行っていただきます。 Python

案件の必須スキル

・Pythonでの開発経験:3年以上 ・データベース、SQLを使用した開発・運用経験 ・クライアントもしくは社内のビジネス職に対して社内のエンジニアと連携しながらプロジェクトを推進した経験

12日前
提供元-ギークスジョブ

Python/自社海外新規エンタメサービスにおけるデータアナリストの開発案件・求人

65-75万円/月額
業務委託(フリーランス)

〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、近年スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中でスポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python

案件の必須スキル

・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験

12日前
提供元-ギークスジョブ

Python/自社海外新規エンタメサービスにおけるデータアナリスト案件・求人

65-75万円/月額
業務委託(フリーランス)

〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中で、スポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python

案件の必須スキル

・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験

12日前
提供元-ギークスジョブ

Python/DWH/BI案件・求人

70-90万円/月額
業務委託(フリーランス)

・新規データマート要件定義、既存集計フロー効率化 ユーザの要望を聞いて新しいデータマートを作成したり既存の集計フローを自動化することで効率化を図ります ・データマート作成 既存帳票(Excel,CSV)からSQL作成、BIでの可視化 ・データのETL処理やETL処理のためのスクリプト・システム開発運用改善業務 AWSのGlue・Athena等を使用し、SQL・Pythonでコーディングし、S3にデータレイク、データマートを構築 既存の基盤改修・改善 ・データマート日次運用保守業務 Python

案件の必須スキル

・Pythonでの開発経験:3年以上 ・SQL(Window関数やUNION、副問い合わせを流暢に扱えること) ・アプリケーション開発経験

12日前
提供元-ギークスジョブ

Python/資金調達プラットフォームのデータサイエンティスト募集案件・求人

90-110万円/月額
業務委託(フリーランス)

自社サービスである資金調達プラットフォームのデータサイエンティストをお任せします。 現在、順調にご利用いただける顧客が増えており、顧客からあずかる財務データ、売上データや 当社サービスの利用実績をもとに、アルゴリズム開発を進め、サービスの精度を上げていただきます。 【プロダクトについて】 22年4月にローンチしたスタートアップの資金調達に新しい選択肢を提供するFintechサービスです。 顧客の財務データから未来の売り上げを査定し、査定を根拠に資金を提供しております。 現在は顧客の会計ソフトとAPI連携し、財務データの査定を行う機能などをローンチしておりますが、 サービス提供を開始したばかりでもあるため、お客様の声を吸い上げてのユーザビリティを向上していける開発体制を目指しております。 また、今後は社内のオペレーションフロー(財務データの提出~スコアリング(査定)~資金提供~返済)を効率化し、 ”より早く””より多く”の顧客利用実績をつくるためのシステム開発や、新たなサービスもこれからローンチしていく予定がございます。 将来的には東南アジアなど海外でのサービス展開も見据えております。 【チーム体制】 プロダクト開発部:8~9名前後 CTO、PdM、エンジニア2名、データサイエンティスト、業務委託メンバー数名 ※フランス、インド、ポーランドなど多国籍なメンバーが活躍しております Python,その他

案件の必須スキル

・データサイエンティストとしてアルゴリズム開発のご経験:3年以上 ・ビジネスレベルの英語力

12日前
提供元-ギークスジョブ

Python/AI×SaaS プロダクトのバックエンドの開発案件・求人

65-85万円/月額
業務委託(フリーランス)

在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 自社サービスSaasの新バージョンをリリースし、エンタープライズとの契約が急激に増えている中で、多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。 Python

案件の必須スキル

・システム開発経験:3年以上 ・Pythonの実装経験:1年以上 ・Sparkなどの分散処理システムの経験 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)

12日前
提供元-ギークスジョブ

Python/AI×SaaSプロダクトのバックエンドの開発案件・求人

70-90万円/月額
業務委託(フリーランス)

在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 自社サービスSaasの新バージョンをリリースし、エンタープライズとの契約が急激に増えている中で、多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。 Python

案件の必須スキル

・システム開発経験:3年以上 ・Pythonの実装経験:1年以上 ・Sparkなどの分散処理システムの経験 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)

12日前
提供元-ギークスジョブ

SQL/データ活用ソリューション企業のデータエンジニア案件・求人

60-90万円/月額
業務委託(フリーランス)

マーケティングソリューションやデータ活用ソリューションを展開する企業にて、 社内外のデータを利用したプロジェクトにエンジニアとして関り、 プロジェクト内での課題の把握と必要な作業の洗い出し、 実作業としてデータ加工、データパイプラインやワークフローの作成、ETL処理を行っていただきます。 ・社内に蓄積されているデータとそれを利用する環境の状況整理 ・データを用いたプロジェクトにおける課題の把握 ・アドホックなデータ抽出作業、データ加工処理 ・データパイプラインの構築や行われる処理の自動化 ・ETL処理のワークフロー化、およびその作業のシステム的な監視の構築 【具体的な仕事内容】 ・データサイエンティスト、エンジニア、ビジネス職がメンバーとして参加するプロジェクト内で必要なデータ加工処理 ・課題解決に必要なシステム要件の整理とその構築 ・処理の自動化や監視など人の手がなるべく掛からないようにするシステム運用の対応 SQL

案件の必須スキル

・SQLに関する基本的な知識 ・複数のRDBMSを扱った開発経験 ・Webサービスやプロダクトのデータを用いた抽出業務やデータ加工処理の経験 ・プログラミング言語を利用したアプリケーション開発経験 ・パブリッククラウドを利用した開発経験

12日前
提供元-ギークスジョブ

Python/在庫分析Saasのバックエンド(データ基盤)構築案件・求人

70-90万円/月額
業務委託(フリーランス)

在庫分析クラウドサービスを展開する企業にて、 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 自社サービスSaasの新バージョンをこの春リリースし、 エンタープライズとの契約が急激に増えている中で、 非常に多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をPythonやSQLを用いて作成し、 集計後、データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、 開発メンバー全員でスプリントを消化していく体制になります。 Python

案件の必須スキル

・システム開発経験:3年以上 ・Pythonの実装経験:1年以上 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)

12日前
提供元-ギークスジョブ

Python/動画プラットフォーム事業における分析業務案件・求人

65-100万円/月額
業務委託(フリーランス)

動画プラットフォーム事業にて取得しているデータの分析を担当して頂きます。日々蓄積される膨大なデータを用いて集計や統計分析を行いサービス改善、課題解決を行っていただきます。 <お任せする予定の作業> ・KPI集計や統計分析、ダッシュボードの構築 ・分析を実現するためのデータ収集や段取り ・企画との連携、サービスの開発支援・施策支援 ・他部署からの集計依頼や分析相談 Python

案件の必須スキル

・PythonやRなどを利用したデータ分析の経験:5年以上 ・SQLを用いたデータ分析やデータ集計の経験

12日前
提供元-ギークスジョブ

AWS/データ分析プラットフォーム運用案件・求人

68-91万円/月額
業務委託(フリーランス)

データ分析プラットフォーム (Databricks) の運用、AWS 利用コスト最適化に関わる業務を実施していただきます。 ▼想定される主な業務 ・利用実態 (既存のリソースの稼働状況、設定されている権限) の調査 ・各種設計ポリシーを元に AWS リソース全般の設計・実装 ・運用ドキュメント (GitHub, Google Workspace) の増補、改善 ・Redash, Databricks を使用したダッシュボードの実装 ・AWS コスト削減方針検討・ライフサイクルなどの実装 AWS

案件の必須スキル

・SQLに関する基本的な知識 ・AWSを利用した開発・運用経験:3年以上 ・Pythonを利用したアプリケーション開発経験:1年ほど

12日前
提供元-ギークスジョブ

Scala/データ分析・アドテクプラットフォーム開発案件・求人

70-100万円/月額
業務委託(フリーランス)

エンジニア向けデータ統合プラットフォームのサーバーサイド開発をお願いいたします。 作業内容イメージとしては下記の内容をお任せする予定です。 ・k8s on GCPを使ったデータパイプライン基盤 (Scala)開発 ・Spark on k8s を使ったパイプライン内のサーバーレスコンピューティング基盤(Scala)開発 Scala

案件の必須スキル

・JavaもしくはScalaでの開発経験:3年以上 ・Git / Githubを利用した開発経験:3年以上

12日前
提供元-ギークスジョブ

Go/データ分析、アドテクプラットフォーム開発案件・求人

70-90万円/月額
業務委託(フリーランス)

自社プロダクトのデータ分析基盤(API / 解析基盤)の開発・運用を行って頂きます。 Go + Scala + Spark Stream + Hadoopなど最新の技術を積極的に取り入れながら、 データ分析基盤を1から開発する経験ができます。 (作業内容例) ・API、WEBアプリケーションの設計、開発、運用 ・リアルタイム分析基盤の設計、開発、運用 ・広告配信基盤の設計、開発、運用 ・機械学習を使った異常検知/未来予測基盤の設計、開発、運用 Go,Scala

案件の必須スキル

・Java, Ruby, Python, Golangなどのプログラミング言語での開発経験 ・Git / Githubを利用した開発経験 ・RDBMS(MySQL 又は Oracle)を使った開発経験

12日前
提供元-ギークスジョブ

Python・Spark/ライフログアプリのAI開発案件・求人

75-95万円/月額
業務委託(フリーランス)

ライフログアプリのビッグデータを活用した人工知能開発にアサイン頂きます。 スマホセンサーなどから上がってくる行動データやテキスト、 画像の解析をベースに、人工知能技術を使ってAIや機械学習を開発して頂きます。 Python,Scala

案件の必須スキル

・Python、Scalaのいずれかでの言語による開発 ・Spark(MLlib)、scikit-learn、TensorFlow、Keras、Chainerを使った機械学習 研究、開発 ・行動データを使った強化学習、推奨エンジン 研究、開発

12日前
提供元-ギークスジョブ

Java・Node.js/自社開発レコメンドエンジンの開発案件・求人

65-90万円/月額
業務委託(フリーランス)

大手ECサイトやオンラインゲーム等、複数コンテンツを持っております企業様での 自社開発レコメンドエンジンの開発案件です。 現在、社内の各種事業に順次展開をしておりますが、 よりスピーディーに展開を進めるため、開発エンジニアを募集しております。 主な作業内容は下記を想定しております。 ・node.js でのAPI設計・開発・テスト ・Hiveクエリの作成・テスト・チューニング ・Spark プログラムの設計・開発・テスト ・Jenkinsジョブの作成 ・Ansible設定ファイルの作成 など Node.js

案件の必須スキル

・Java・MySQLを用いたアプリケーション開発に3年以上従事し、基本設計〜テストまでを単独で行える事 ・Hadoopの技術をキャッチアップし、ビッグデータ関連の技術習得に意欲的に取り組める方

12日前
提供元-ギークスジョブ

Ruby・Java/ プラットフォーム設計開発案件・求人

75-110万円/月額
業務委託(フリーランス)

EC,動画などの複数コンテンツを開発する企業様にて、 コアプラットフォームの設計・開発をご担当頂きます。 大規模サービスを高度な技術力で支え、 安定したサービスを提供していく事がコアプラットフォームの役割です。 1700万人のユーザーを持つ巨大プラットフォームの根底にある、 プラットフォーム開発・インフラ整備・ガイドラインの整備・セキュリティや品質の確保等、業務は多岐にわたります。 (作業内容例) ・新ポータル開発 ・各基盤APIの設計開発 ・各サービスに跨る基盤の整備 ・高負荷対策フォロー ・業務効率化、開発 ・運用の自動化 ・品質・セキュリティの確保 ・新規サービスの立ち上げフォロー (募集背景) 組織を横断して新規プロジェクトを立ち上げる事になり、 ハイレベルのスキルをお持ちのエンジニアの方を募集し さらにレベルの高いプラットフォームを構築していきたいと考えています。 Java,Python,Ruby

案件の必須スキル

・Ruby on RailsでのWebアプリケーション、APIの開発経験(2年以上) ・Java,Phthon,rubyでの開発経験(2年以上) ・プロジェクトの立ち上げの経験 ・ミドルウェア(Apache,Tomcat,MySQL)に関する構築・運用・チューニング経験 ・Linuxに関する構築・運用・チューニング経験 ・WebAPIの利用・構築に関する知識・経験 ・クラウド基盤を利用した自動化経験 ・Ansibleなどの構成管理ツールの利用経験 ・L2/L3/L4通信に関する基本的な知識 ・Webセキュリティに関する基本的な知識

12日前
提供元-ギークスジョブ

LAMP/日本サブカル メディア サイト 新規開発案件・求人

55-75万円/月額
業務委託(フリーランス)

東京から世界に音楽やファッションなどを発信していくサイトになります。 サーバーサイドにて管理画面を作成頂きます。 リリース後は引き続き後運用をご担当頂きます。 [体制] エンジニア2名+PM [開発環境] フロント:Java,Spark,DynamoDB サーバーサイド:LAMP環境、YiiFW,AWS,nginx,RDB,git,Backlog,Slack,travis CI Java,PHP

案件の必須スキル

PHPでの開発経験2年以上 MVCFWの経験

12日前
提供元-ギークスジョブ
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

12日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

12日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

13日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データレイクエンジニアをお任せいたします。 ■具体的な作業内容 1.AWSのデータレイク(S3+Glue Data Catalog)からBigQueryへのデータ移行作業 1.Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験 ・Google Cloud Platformによるデータ基盤開発経験

13日前
提供元-Midworks
面談1回

【Python(データ分析系)】【業務委託(準委任)】バッチ開発・運用(フルリモート)

75万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データエンジニアとして、自社独自のデータ集積のプラットフォームを持つ運営する企業にて主に様々な種類のDBのバッチ開発・改修・運用業務をお願い致します。 ■具体的な作業内容 ・Pythonを使ったバッチ開発/改修/運用 ・データインサートetc. ■参画先企業について 世界中の特許・論文データや研究費・ベンチャー企業の資金調達情報などを扱っており投資データや特許データなど財務データと非財務データを組み合わせて事業戦略策定のコンサルティング提案などのサービスを行っております。 ■参画先チーム データ収集~データ処理を行っている部署です。 データの翻訳やデータ処理の高速化/自動化などを手掛けておりプログラミング言語はPython、Google Cloud Platform環境での業務で現場は5名のチーム体制です。 ■工程:開発~運用 ■環境 言語:Python インフラ: Google Cloud Platform データベース: PostgreSQL DWH:BigQuery ワークフロー: Google Cloud Composer (Apache Airflow) その他ミドルウェア: Dataflow(Apache Beam), Dataproc(Apach Spark) , Cloud Run その他開発環境: GitLab, Slack, GROWI -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・Google Cloud Platform環境での開発経験/知見 ・Pythonを使用してのプログラミング経験

13日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データ基盤整備

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データ基盤整備をお任せします。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigqueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) ■募集背景:リソース逼迫のため、人員増員 ■業務環境:メンバー:3名(TL1名、エンジニア2名) ※部全体:50名弱 ■開発環境 ・言語 Python, Hive, Spark ・AWS EMR, Glue, Athena, Lambda, API Gateway ・Google Cloud Platform BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows ・CI,CD,その他 Terraform, CircleCI, GitHub Actions, Digdag, Embulk ■担当工数 1.開発/保守改修 2.基盤設計/基本設計/詳細設計/開発 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

13日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データ基盤整備

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データ基盤整備をお任せします。 リソース逼迫のため、人員増員いたします。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) ■業務環境 メンバー:3名(TL1名、エンジニア2名) ※部全体:50名弱 ■開発環境 ・言語:Python, Hive, Spark ・AWS:EMR, Glue, Athena, Lambda, API Gateway ・Google Cloud Platform:BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows ■担当工数 1.開発/保守改修 2.基盤設計/基本設計/詳細設計/開発 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

13日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】バックエンドエンジニア・データエンジニア

130万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 世界最大級の傑出した無形資産データ統合基盤から的確な未来予測や社会課題解決を支援していただきます。 ■具体的な作業内容 ・世界各国の特許や論文、国家研究予算データなどオープンデータの収集、分析を行うためのデータ基盤、API、バッチシステムの構築、運用 ・上記、Google Cloud Platformを用いたETLパイプラインの構築、運用ならびに既存システムのリファクタリング ・データカタログや監査などのデータガバナンスのためのアーキテクチャ選定や構築 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

プログラミングの経験3年以上 ・LinuxもしくはUnixの経験 ・クラウドインフラ(AWS/Google Cloud Platform)を利用したシステム構築ないし運用の経験 (オンプレの経験しかない方はNG) ■開発環境 言語:Python インフラ:Google Cloud Platform (実機はありません) データベース:PostgreSQL DWH:BigQuery ワークフロー:Google Cloud Composer (Apache Airflow) その他ミドルウェア:Dataflow(Apache Beam), Dataproc(Apach Spark) , Cloud Run その他開発環境:GitLab, Slack, GROWI 個人環境:Mac/Windows/Linux, Docker

13日前
提供元-Midworks
面談1回

【TypeScript】【業務委託(準委任)】バックエンドエンジニア業務

100万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験

14日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データレイクエンジニアをお任せいたします。 ■具体的な作業内容 1.AWSのデータレイク(S3+Glue Data Catalog)からBigQueryへのデータ移行作業 1.Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験 ・Google Cloud Platformによるデータ基盤開発経験

14日前
提供元-Midworks
面談1回

【Python(データ分析系)】【業務委託(準委任)】バッチ開発・運用(フルリモート)

75万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データエンジニアとして、自社独自のデータ集積のプラットフォームを持つ運営する企業にて主に様々な種類のDBのバッチ開発・改修・運用業務をお願い致します。 ■具体的な作業内容 ・Pythonを使ったバッチ開発/改修/運用 ・データインサートetc. ■参画先企業について 世界中の特許・論文データや研究費・ベンチャー企業の資金調達情報などを扱っており投資データや特許データなど財務データと非財務データを組み合わせて事業戦略策定のコンサルティング提案などのサービスを行っております。 ■参画先チーム データ収集~データ処理を行っている部署です。 データの翻訳やデータ処理の高速化/自動化などを手掛けておりプログラミング言語はPython、Google Cloud Platform環境での業務で現場は5名のチーム体制です。 ■工程:開発~運用 ■環境 言語:Python インフラ: Google Cloud Platform データベース: PostgreSQL DWH:BigQuery ワークフロー: Google Cloud Composer (Apache Airflow) その他ミドルウェア: Dataflow(Apache Beam), Dataproc(Apach Spark) , Cloud Run その他開発環境: GitLab, Slack, GROWI -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・Google Cloud Platform環境での開発経験/知見 ・Pythonを使用してのプログラミング経験

14日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データ基盤整備

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データ基盤整備をお任せします。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigqueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) ■募集背景:リソース逼迫のため、人員増員 ■業務環境:メンバー:3名(TL1名、エンジニア2名) ※部全体:50名弱 ■開発環境 ・言語 Python, Hive, Spark ・AWS EMR, Glue, Athena, Lambda, API Gateway ・Google Cloud Platform BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows ・CI,CD,その他 Terraform, CircleCI, GitHub Actions, Digdag, Embulk ■担当工数 1.開発/保守改修 2.基盤設計/基本設計/詳細設計/開発 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

14日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データ基盤整備

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データ基盤整備をお任せします。 リソース逼迫のため、人員増員いたします。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) ■業務環境 メンバー:3名(TL1名、エンジニア2名) ※部全体:50名弱 ■開発環境 ・言語:Python, Hive, Spark ・AWS:EMR, Glue, Athena, Lambda, API Gateway ・Google Cloud Platform:BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows ■担当工数 1.開発/保守改修 2.基盤設計/基本設計/詳細設計/開発 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

14日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】バックエンドエンジニア・データエンジニア

130万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 世界最大級の傑出した無形資産データ統合基盤から的確な未来予測や社会課題解決を支援していただきます。 ■具体的な作業内容 ・世界各国の特許や論文、国家研究予算データなどオープンデータの収集、分析を行うためのデータ基盤、API、バッチシステムの構築、運用 ・上記、Google Cloud Platformを用いたETLパイプラインの構築、運用ならびに既存システムのリファクタリング ・データカタログや監査などのデータガバナンスのためのアーキテクチャ選定や構築 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

プログラミングの経験3年以上 ・LinuxもしくはUnixの経験 ・クラウドインフラ(AWS/Google Cloud Platform)を利用したシステム構築ないし運用の経験 (オンプレの経験しかない方はNG) ■開発環境 言語:Python インフラ:Google Cloud Platform (実機はありません) データベース:PostgreSQL DWH:BigQuery ワークフロー:Google Cloud Composer (Apache Airflow) その他ミドルウェア:Dataflow(Apache Beam), Dataproc(Apach Spark) , Cloud Run その他開発環境:GitLab, Slack, GROWI 個人環境:Mac/Windows/Linux, Docker

14日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データレイクエンジニアをお任せいたします。 ■具体的な作業内容 1.AWSのデータレイク(S3+Glue Data Catalog)からBigQueryへのデータ移行作業 1.Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験 ・Google Cloud Platformによるデータ基盤開発経験

14日前
提供元-Midworks
面談1回

【Python(データ分析系)】【業務委託(準委任)】バッチ開発・運用(フルリモート)

75万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データエンジニアとして、自社独自のデータ集積のプラットフォームを持つ運営する企業にて主に様々な種類のDBのバッチ開発・改修・運用業務をお願い致します。 ■具体的な作業内容 ・Pythonを使ったバッチ開発/改修/運用 ・データインサートetc. ■参画先企業について 世界中の特許・論文データや研究費・ベンチャー企業の資金調達情報などを扱っており投資データや特許データなど財務データと非財務データを組み合わせて事業戦略策定のコンサルティング提案などのサービスを行っております。 ■参画先チーム データ収集~データ処理を行っている部署です。 データの翻訳やデータ処理の高速化/自動化などを手掛けておりプログラミング言語はPython、Google Cloud Platform環境での業務で現場は5名のチーム体制です。 ■工程:開発~運用 ■環境 言語:Python インフラ: Google Cloud Platform データベース: PostgreSQL DWH:BigQuery ワークフロー: Google Cloud Composer (Apache Airflow) その他ミドルウェア: Dataflow(Apache Beam), Dataproc(Apach Spark) , Cloud Run その他開発環境: GitLab, Slack, GROWI -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・Google Cloud Platform環境での開発経験/知見 ・Pythonを使用してのプログラミング経験

14日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データ基盤整備

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データ基盤整備をお任せします。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigqueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) ■募集背景:リソース逼迫のため、人員増員 ■業務環境:メンバー:3名(TL1名、エンジニア2名) ※部全体:50名弱 ■開発環境 ・言語 Python, Hive, Spark ・AWS EMR, Glue, Athena, Lambda, API Gateway ・Google Cloud Platform BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows ・CI,CD,その他 Terraform, CircleCI, GitHub Actions, Digdag, Embulk ■担当工数 1.開発/保守改修 2.基盤設計/基本設計/詳細設計/開発 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

14日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】データ基盤整備

80万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 データ基盤整備をお任せします。 リソース逼迫のため、人員増員いたします。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください) ■業務環境 メンバー:3名(TL1名、エンジニア2名) ※部全体:50名弱 ■開発環境 ・言語:Python, Hive, Spark ・AWS:EMR, Glue, Athena, Lambda, API Gateway ・Google Cloud Platform:BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows ■担当工数 1.開発/保守改修 2.基盤設計/基本設計/詳細設計/開発 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

・AWS上で動作するアプリケーションの開発/保守経験:2~3年 ┗AWSコンソール等を利用しシステムログ/アプリケーションログから課題発見、解決をした経験

14日前
提供元-Midworks
面談1回

【クラウドエンジニア(AWS)】【業務委託(準委任)】バックエンドエンジニア・データエンジニア

130万円/月額
業務委託(フリーランス)

【20代~40代のエンジニア活躍中!】■概要 世界最大級の傑出した無形資産データ統合基盤から的確な未来予測や社会課題解決を支援していただきます。 ■具体的な作業内容 ・世界各国の特許や論文、国家研究予算データなどオープンデータの収集、分析を行うためのデータ基盤、API、バッチシステムの構築、運用 ・上記、Google Cloud Platformを用いたETLパイプラインの構築、運用ならびに既存システムのリファクタリング ・データカタログや監査などのデータガバナンスのためのアーキテクチャ選定や構築 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------

案件の必須スキル

プログラミングの経験3年以上 ・LinuxもしくはUnixの経験 ・クラウドインフラ(AWS/Google Cloud Platform)を利用したシステム構築ないし運用の経験 (オンプレの経験しかない方はNG) ■開発環境 言語:Python インフラ:Google Cloud Platform (実機はありません) データベース:PostgreSQL DWH:BigQuery ワークフロー:Google Cloud Composer (Apache Airflow) その他ミドルウェア:Dataflow(Apache Beam), Dataproc(Apach Spark) , Cloud Run その他開発環境:GitLab, Slack, GROWI 個人環境:Mac/Windows/Linux, Docker

14日前
提供元-Midworks

Sparkのフリーランス案件・求人について

■Sparkとは Sparkとは、大規模データ処理のためのオープンソースのクラスタコンピューティングフレームワークで、Hadoop MapReduceよりも高速で汎用的な分散処理を実現します。Sparkはバッチ処理、ストリーム処理、インタラクティブクエリ、機械学習などの様々なワークロードに対応しています。 Sparkの特徴として、メモリ内での高速な処理が可能なこと、Resilient Distributed Dataset(RDD)による耐障害性とデータ不変性を持つこと、Spark SQL、Spark Streaming、MLlib、GraphXなどの豊富なライブラリを持つこと、Scala、Java、Python、Rから利用可能なこと、YARN、Mesos、Kubernetesなどの様々なクラスタマネージャ上で動作すること、データソースとしてHDFS、Cassandra、HBase、S3などに対応していることなどが挙げられます。 Sparkができる開発はビッグデータのバッチ処理、リアルタイムデータ処理、大規模データ分析、機械学習モデルの構築とスコアリング、グラフ分析、ETL処理、データウェアハウジングなどと幅広いです。 Sparkを活用している世界的サービスやプロダクトは、Amazon、eBay、Yahoo!、NASA、Alibaba、Tencent、Amazonなどの大企業や、データ分析プラットフォームのDatabricks、ビッグデータ分析基盤のCloudera、ストリーム処理基盤のConfluent Platformなどで採用されています。また、Sparkはデータサイエンスやデータエンジニアリングの分野で必須のスキルとなりつつあり、多くの企業や組織でデータ活用の中心的な役割を果たしています。 ■Sparkを活用するメリット この章ではSparkを活用するメリットについて説明します。 Sparkを習得することにより、具体的に以下のようなメリットがあります。 ・大規模データの分散処理を高速に行える ・MapReduceよりも高水準のAPIによる開発生産性の向上が見込める ・機械学習ライブラリMLlibによる大規模データの予測分析が可能 ・リアルタイムストリーム処理への対応により多様な処理要件に対応できる ・SQLライクなクエリ言語SparkSQLにより既存スキルの活用が可能 ・PythonやR言語との連携によりデータサイエンス業務との親和性が高い ・クラウドのマネージドサービスで容易に利用可能 Sparkは大規模データ処理基盤、データレイク構築、機械学習基盤など様々なビッグデータ関連業務で利用されており、フリーランス求人・案件数も増加傾向にあります。上記活用する上でのメリットを踏まえて、習得可否を検討することをおすすめします。 ■Sparkを活用するデメリット この章ではSparkを活用するデメリットについて説明します。 Sparkを習得することにより、具体的に以下のようなデメリットがあります。 ・大量リソースを必要とするためインフラコストが高くなる ・多数のクラスタノードを適切に設定・管理する運用負荷が高い ・デバッグやトラブルシューティングが難しい面がある ・安定性や互換性に関する情報が少なく判断が難しい Sparkはメリットが多いですが、インフラコストや運用管理の難しさなど注意すべき点がいくつかあることを理解しておきましょう。 Spark習得を今後検討しているフリーランスエンジニアはSparkを活用するメリットデメリットを比較した上で決めると後悔が少ないでしょう。