1 - 30件/全1,433件
・DWHの再構築に向けての現状分析から計画策定支援(2025年年度中に対応) -現状分析と課題整理 -新DWHの要件定義 ・BIツールの再導入支援(2026年度中には現行BIツールと並行して入れ替えを検討) -現状分析と要件定義支援 -BIツールの選定支援 ・上記業務における業務推進と各種ドキュメント作成 ・各種ステークホルダー(工場現場担当者を含む)への調整業務
案件の必須スキル
・製造業向けPJでの構想策定やシステム要件定義などの上流工程の経験 ・DWHやDBの設計/構築経験 ・BI・データ可視化ツールの知見 ・ご自身で業務を推進してくコミュニケーション能力もしくは推進力
======================== ※必ずお読みください※ 【必須要件】 東京の顧客先に常駐できる方 【外国籍の方の場合】 日本語能力検定1級お持ちの方 日本語が母国語の方 ======================== ・各種システムからの BigQuery へのデータパイプラインの構築・運用 ・関連部署や関連チームとのコミュニケーションが必要になります ・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用 ・現行システムから新システムへのデータ移行
案件の必須スキル
・GCP、AWS などクラウドでのデータ分析基盤の構築・運用経験 ・BigQuery の利用経験(1年以上必須) ・DWH へのデータパイプラインの運用経験 ・データベースに関する知識と SQL の利用経験 ・Python 開発経験 ・チャットコミュニケーション (Slack) が中心となるため、チャットコミュニケーションに抵抗がない方(必要に応じてMTGも実施します)
・医療業界向けデータ分析・可視化業務に携わっていただきます。 ・主に下記作業をご担当いただきます。 蓄積されている各種医療データや外部から提供頂いた医療データを活用し、 外部公開向けの分析レポートを作成する
案件の必須スキル
・DWH-BIシステム構築経験及びDMやBIレポート構築経験 ・分析基盤におけるマスタデータ及びデータクレンジングパイプラインの構築及び運用経験 ・データ抽出・加工・集計・可視化・解析の経験
・基幹システム運用保守業務に携わっていただきます。 ■メイン業務 ‐システム部門の代わりとなってシステム運用保守業務、各種提案、各種検討 ‐システム部門の代わりとなって各種プロジェクトを推進 ‐システム部門やエンドユーザーの代わりとなって業務要件を考え、提案 ■その他メイン業務 ‐データメンテナンス作業、各種調査、依頼資料作成 ‐各種データ抽出作業、マスタセットアップ対応 ‐ツール運用保守 ‐RPA、VBAの開発、保守作業 ‐問合せ対応 ‐トラブル対応、調査
案件の必須スキル
【SE】 ・リーダー経験 ・IT業界での正社員経験5年以上 ・会議に必要な資料、調査等の事前準備の経験 ・基本設計の経験 ・要件から使用言語の選択、システム、業務運用の立案、調整、システム構成の設計経験 ・基幹システムの開発経験 ・SQLの実務経験 ・プログラムの解析経験 【上流SE】 ・ユーザの状況を加味したうえで提案資料作成、提案の経験 ・ユーザのお悩み相談から企画立案、推進経験
・基幹システム運用保守業務に携わっていただきます。 ■メイン業務 ‐システム部門の代わりとなってシステム運用保守業務、各種提案、各種検討 ‐システム部門の代わりとなって各種プロジェクトを推進 ‐システム部門やエンドユーザーの代わりとなって業務要件を考え、提案 ■その他メイン業務 ‐データメンテナンス作業、各種調査、依頼資料作成 ‐各種データ抽出作業、マスタセットアップ対応 ‐ツール運用保守 ‐RPA、VBAの開発、保守作業 ‐問合せ対応 ‐トラブル対応、調査
案件の必須スキル
【SE】 ・リーダー経験 ・IT業界での正社員経験5年以上 ・会議に必要な資料、調査等の事前準備の経験 ・基本設計の経験 ・要件から使用言語の選択、システム、業務運用の立案、調整、システム構成の設計経験 ・基幹システムの開発経験 ・SQLの実務経験 ・プログラムの解析経験 【上流SE】 ・ユーザの状況を加味したうえで提案資料作成、提案の経験 ・ユーザのお悩み相談から企画立案、推進経験
【20代、30代が活躍中!】 ※実務経験1年以上お持ちの方が対象の案件です! ■業務内容 大手自動車部品メーカーのデータ(主に画像)を MLOpsで利用可能なデータセットとして管理する 基盤構築のプロジェクトで、データエンジニアを募集いたします。 顧客の要望に応じ、データを加工のうえ提供したり、 それに伴うデータベースの構築などをご担当いただきます。 また直近ではDWHの移行などの作業もございます。 ■条件等 勤務時間:10:00~19:00 勤務地:フルリモート 時間幅:140-180時間 面接:1回 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
案件の必須スキル
・AWS上での開発経験 ・Python開発経験 ・Git操作が一通りできること ・DataBase(RDB)を活用したアプリケーションの開発経験 ・IaC(Terraformなど)を使用してクラウドインフラの使用経験 ・使ったことのない技術に関するキャッチアップ力
■案件概要 企業全体のデータ利活用に向けて、Snowflakeを活用したエンタープライズアーキテクチャの設計・構築をご担当いただきます。 データメッシュ型マルチアカウント運用を想定したアカウント・組織設計、 RBACに基づく詳細なロール・権限設計(アカウントレベル、データベース・ スキーマレベル、カラム・行レベルのアクセス制御)、セキュリティポリシー策定、 データ共有時のセキュアな仕組み構築までを行います。 ■業務内容(現状の想定,変動あり) 〇Snowflakeの環境構築・アーキテクチャ設計 ・企業全体のデータ利活用に向けたSnowflakeアカウントおよび組織設計(データメッシュやマルチアカウント戦略を考慮した設計) ・エンタープライズアーキテクチャに則ったSnowflakeのインフラ設計、アカウント分割設計 〇組織全体のデータガバナンス策定 ・Snowflakeを活用したデータガバナンス方針の設計・策定(データ共有ポリシー、セキュリティ要件整理) ・企業規模でのセキュリティポリシーやアクセス管理ルールの策定・ドキュメンテーション 〇Snowflake権限設計・RBAC実装 ・RBAC(ロールベースのアクセス制御)の設計・設定・実装 ・アカウントレベル(SECURITYADMIN、SYSADMIN、USERADMINなど)およびデータベース・スキーマレベルのロール設計 ・カラムレベル・行レベルでの詳細なアクセス制御設定(Row Access Policy、Column Masking Policy) ・Secure ViewsやSecure UDFsを活用したデータ共有時のセキュリティ設計 〇運用ルールの整備 ・Snowflakeを活用した企業全体での運用フロー整備 ・障害対応プロセス策定、定期的な運用改善、コスト管理・最適化提案 〇関係部署との調整・プロジェクト推進 ・データ活用を目的とした各部門(経営企画、マーケティング、エンジニアリング等)とのコミュニケーション ・要件整理・定義から実際の構築・導入支援までをリード ■その他 ・稼働の仕方:基本的には出社を想定しておりますが、ご面談次第ではリモートでの稼働も検討可能です ・出社場所:港区
案件の必須スキル
・Snowflakeでの複数の構築実績 ・Snowflake1年以上の構築・設計
・転職サービスの事業成長に必要なデータマート作成およびモニタリング業務に携わっていただきます。 ・主に下記の業務をご担当いただきます。 - 規則に則ったデータマート、DWHの設計および作成 - Tableauを用いたダッシュボードの作成
案件の必須スキル
・Excel、スプレッドシートを用いた関数の使用経験 ・SQLを用いたデータ抽出経験 ・データ分析基盤構築におけるテーブルの設計経験 ・BIツールダッシュボード構築経験 ・Githubの使用経験
・データ分析基盤およびレコメンド機能の開発支援をしていただきます。 ・具体的な作業内容は下記になります。 -データパイプラインの構築 -データマートの作成 -データの可視化 -データの活用
案件の必須スキル
・Google Cloud環境で下記いずれかの実務経験 - ビッグデータを活用したレコメンド機能の設計、開発および運用経験 - DWH、DataPipeline、ELT等の設計、開発および運用経験 ・PythonもしくはSQLの利用経験(1年以上)
======================== ※必ずお読みください※ 【必須要件】 東京の顧客先に常駐できる方 【外国籍の方の場合】 日本語能力検定1級お持ちの方 日本語が母国語の方 ======================== ・各種システムからの BigQuery へのデータパイプラインの構築・運用 ・関連部署や関連チームとのコミュニケーションが必要になります ・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用 ・現行システムから新システムへのデータ移行
案件の必須スキル
・GCP、AWS などクラウドでのデータ分析基盤の構築・運用経験 ・BigQuery の利用経験(1年以上必須) ・DWH へのデータパイプラインの運用経験 ・データベースに関する知識と SQL の利用経験 ・Python 開発経験 ・チャットコミュニケーション (Slack) が中心となるため、チャットコミュニケーションに抵抗がない方(必要に応じてMTGも実施します)
・基幹システム刷新プロジェクトの構想策定およびRFP作成支援 -システム化方針検討 -システム全体構想策定 -RFP作成 -次フェーズ計画策定 -開発ベンダー選定作業 -マスタ管理方針作成 ・PJ全体のプロジェクトマネジメント業務支援
案件の必須スキル
・ITアーキテクチャの知見 ・基幹システム刷新プロジェクトのPM/PMO(上流工程)経験 ・業務プロセス改善およびTo-Be策定の経験 ・ベンダー選定およびRFP作成の経験 ・広告業界の業務知見をキャッチアップできる方
既存データ分析基盤から新たに構築する分析基盤へのリプレイス案件になります。 担当していただく作業としては現行コードを新環境向けにリファクタリングする作業がメインになります。 既存環境のDWHはRedshiftを利用しており、新環境ではsnowflakeを利用します。 ・現行のコードを、新環境向けにリファクタリングする ・PoCで作成したコードをガイドラインに、移行させたい データパイプライン単位でコードを量産していく など
案件の必須スキル
・週5フル出社可能な方 ・30代〜40代の方 ・日本国籍の方 ・RedShiftやSnowflakeの利用経験 ・PythonやSQLを使った開発経験 ・AWS(S3、Lambda、CDK)を使った開発経験
・データ分析基盤およびレコメンド機能の開発支援をしていただきます。 ・具体的な作業内容は下記になります。 -データパイプラインの構築 -データマートの作成 -データの可視化 -データの活用
案件の必須スキル
・Google Cloud環境で下記いずれかの実務経験 - ビッグデータを活用したレコメンド機能の設計、開発および運用経験 - DWH、DataPipeline、ELT等の設計、開発および運用経験 ・PythonもしくはSQLの利用経験(1年以上)
======================== ※必ずお読みください※ 【必須要件】 東京の顧客先に常駐できる方 【外国籍の方の場合】 日本語能力検定1級お持ちの方 日本語が母国語の方 ======================== ・各種システムからの BigQuery へのデータパイプラインの構築・運用 ・関連部署や関連チームとのコミュニケーションが必要になります ・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用 ・現行システムから新システムへのデータ移行
案件の必須スキル
・GCP、AWS などクラウドでのデータ分析基盤の構築・運用経験 ・BigQuery の利用経験(1年以上必須) ・DWH へのデータパイプラインの運用経験 ・データベースに関する知識と SQL の利用経験 ・Python 開発経験 ・チャットコミュニケーション (Slack) が中心となるため、チャットコミュニケーションに抵抗がない方(必要に応じてMTGも実施します)
・社内向けデータエンジニア案件に携わっていただきます。 ・主に下記作業を担当いただきます。 ‐各種システムからのBigQueryへのデータパイプラインの構築、運用 ‐BigQuery上のデータウェアハウス、データマートの加工処理の構築、運用 ‐現行システムから新システムへのデータ移行
案件の必須スキル
・BigQueryの利用経験1年以上 ・DWHへのデータパイプラインの運用経験 ・データベースに関する知識とSQLの利用経験 ・Python開発経験
データ提供システム(J2EE)で作成した内容のSSRSへのリプレイス
案件の必須スキル
・SQL Server のDWH構築/運用経験 ・SQL Server Reporting Services の構築/運用経験
現在、CDPとしてTreasure Dataを導入しており、顧客基盤を作りたいと考えています。 Databricksも活用しており、KPIダッシュボードなども実運用しております。 顧客基盤を作るために、アーキテクチャやガイドラインの作成をリード、最上流の検討をお願いしたいです。 <備考> ・フルリモートで問題ありませんが、キャッチアップ出社をしてくださる方だと嬉しいです。
案件の必須スキル
・CDPの導入をリードした経験 ・導入後の運用を行った経験
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
具体的な職務内容 ・ソフトウェアテストの戦略・方針の策定 ・テスト計画の立案、設計、実行、評価 ・テスト自動化の導入および推進 ・テストプロセスの最適化と標準化 ・テスターや開発チームへのテスト実施指示およびサポート ・テスト結果の分析と品質改善施策の提案 ・品質保証に関するベストプラクティスの導入・推進 ・バグトラッキングシステムの管理とレポート作成
案件の必須スキル
・ソフトウェアテストの設計・実行経験 ・テスト計画や戦略の策定経験 ・テストチームのリードまたはマネジメント経験 ・テスト自動化ツール(Selenium、JUnit、pytest など)の使用経験 ・品質保証に関する知識(ISTQBなどの資格をお持ちの方は歓迎)
【本ポジションの役割】 顧客要件を元にBIツールを用いて実際のレポートを作成していただきます。 表示すべきデータのI/Oを元にレイアウトの設計からテストまで担当していただきます。 【具体的な業務内容】 ・お客様のユーザニーズを直接ヒアリングし、レポート作成のための要件定義をリードする ・要件をヒアリングしながらレポートの利用シナリオを作成・お客様と合意形成を実施する ・顧客から提供されるビジネス要件を理解し、それに基づいて必要なデータとレポートの要件を整理 ・既存のレポートを解析するなどして、レポート作成のための詳細設計 ・必要なデータを顧客システムやデータベース(DWHなど)から抽出・統合 ・Power BIなどのBIツールを使い、レポートのダッシュボードを設計 ・レポートの見やすさや使いやすさを意識し、UI/UXの観点からレイアウトを設計 ・顧客へのレポート運用支援やトレーニングを実施
案件の必須スキル
・一定規模における商用サービスのバックエンドAPIの設計 / DB設計の経験 ・大規模データを取り扱うPowerBIでの開発経験 ・ディメンション/ファクトを用いたデータモデリングの実務経験 ・コードのレビュー経験 ・アジャイルでのチーム開発経験 ・オープンで積極的なコミュニケーションが取れる方 ・リモートワークでの業務が可能な方
・基幹システム刷新プロジェクトの構想策定およびRFP作成支援 -現状調査 -To-Be業務設計 -業務要求整理 -RFP発出準備と発出後の業務支援 -開発ベンダー選定作業
案件の必須スキル
・基幹システム刷新プロジェクトのPM/PMO(上流工程)経験 ・業務プロセス改善およびTo-Be策定の経験 ・ベンダー選定およびRFP作成の経験 ・広告業界の業務知見をキャッチアップできる方
・ガス会社向けDatabricks構築案件にAzureアーキテクトとして携わっていただきます。 ・主に下記作業をご担当いただきます。 -Databricksを新規構築し、データパイプライン開発
案件の必須スキル
・Azureサービスを組み合わせた要件定義と設計構築経験 ・AzureでのDWHの構築経験 ・下記、Azure全般の経験 -Functions、Synapse、Analytics、Data Factory、Key Vault
・ガス会社向けDatabricks構築案件にAzureアーキテクトとして携わっていただきます。 ・主に下記作業をご担当いただきます。 -Databricksを新規構築し、データパイプライン開発
案件の必須スキル
・Azureサービスを組み合わせた要件定義と設計構築経験 ・AzureでのDWHの構築経験 ・下記、Azure全般の経験 -Functions、Synapse、Analytics、Data Factory、Key Vault
1 - 30件/全1,433件
この条件の新着案件情報を受け取る
経験・スキルで絞り込み
単価で絞り込み
エリアで絞り込み
この条件の新着案件情報を受け取る
最高単価
220万円
最低単価
25万円
平均単価
78.8万円
2025年03月のデータエンジニアのフリーランス案件・求人一覧の月額単価の平均は78.8万円です。データエンジニアのフリーランス案件・求人一覧の年収の目安は946万円です。単価20万円台のデータエンジニアのフリーランス案件・求人一覧は2件、単価30万円台のデータエンジニアのフリーランス案件・求人一覧は3件、単価40万円台のデータエンジニアのフリーランス案件・求人一覧は21件、単価50万円台のデータエンジニアのフリーランス案件・求人一覧は84件、単価60万円台のデータエンジニアのフリーランス案件・求人一覧は181件、単価70万円台のデータエンジニアのフリーランス案件・求人一覧は201件、単価80万円台のデータエンジニアのフリーランス案件・求人一覧は209件、単価90万円台のデータエンジニアのフリーランス案件・求人一覧は88件、単価100万円台のデータエンジニアのフリーランス案件・求人一覧は160件です。※フリーランスボード調べ(2025年03月04日更新)
2025年03月のデータエンジニアのフリーランス案件・求人一覧の平均月額単価は78.8万円です。前月比で+0.2%(+0.1万円)と月単位でみるデータエンジニアのフリーランス案件・求人一覧の月額単価は増加傾向です。
2025年03月のデータエンジニアのフリーランス案件・求人一覧の想定平均年収は945.6万円です。前月比で+0.2%(+1.8万円)と月単位でみるデータエンジニアのフリーランス案件・求人一覧の想定年収は増加傾向です。
働き方 | 割合 | 前月比 |
---|---|---|
フルリモート | 34.6% | -27.9% |
一部リモート | 60.6% | +39.7% |
常駐 | 4.8% | -11.8% |
2025年03月のデータエンジニアのフリーランス案件・求人一覧におけるフルリモート案件・求人の割合は34.6%で前月比で-27.9%とやや減少傾向にあります。一部リモート案件・求人の割合は60.6%で前月比で+39.7%とやや増加傾向にあります。常駐案件・求人の割合は4.8%で前月比で-11.8%とやや減少傾向にあります。