1 - 30件/全291件
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
大手キャリアが提供するスーパー販促プログラムにおいて、加盟店(飲食店、小売等)が利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)のデータ関連の開発および、顧客企業との仕様調整、実現性検討を行っていただきます。 Python
案件の必須スキル
・AWSやGCP、Azureなどのクラウドにおける開発経験:2年以上 ・Pythonでの開発経験:3年以上 ・下記の項目を1つ以上満たす方 データベース、データウェアハウスを使ったデータ基盤の開発経験 データ処理パイプラインの開発経験 Apache Hadoop、Sparkなどの分散データ処理の開発経験
HadoopやDWH関連のデータ分析基盤構築支援のサービスをメインで展開されている弊社顧客内の請負開発チーム内において、AWS ECS、Snowflake、Datadog、Databricks等を使用したデータ分析構築をご一緒に担当いただける方を募集しております。 ※顧客内に複数案件が同時に走っている為、技術者様のスキルセットに併せて、見合う案件を面談時にご紹介いたします AWS
案件の必須スキル
・データ基盤開発のご経験 ・AWSの構築経験 ・BIツール使用経験
動画プラットフォーム事業にて取得しているデータの分析を担当して頂きます。日々蓄積される膨大なデータを用いて集計や統計分析を行いサービス改善、課題解決を行っていただきます。 <お任せする予定の作業> ・KPI集計や統計分析、ダッシュボードの構築 ・分析を実現するためのデータ収集や段取り ・企画との連携、サービスの開発支援・施策支援 ・他部署からの集計依頼や分析相談 Python
案件の必須スキル
・PythonやRなどを利用したデータ分析の経験:5年以上 ・SQLを用いたデータ分析やデータ集計の経験
EC,動画などの複数コンテンツを開発する企業様にて、 コアプラットフォームの設計・開発をご担当頂きます。 大規模サービスを高度な技術力で支え、 安定したサービスを提供していく事がコアプラットフォームの役割です。 1700万人のユーザーを持つ巨大プラットフォームの根底にある、 プラットフォーム開発・インフラ整備・ガイドラインの整備・セキュリティや品質の確保等、業務は多岐にわたります。 (作業内容例) ・新ポータル開発 ・各基盤APIの設計開発 ・各サービスに跨る基盤の整備 ・高負荷対策フォロー ・業務効率化、開発 ・運用の自動化 ・品質・セキュリティの確保 ・新規サービスの立ち上げフォロー (募集背景) 組織を横断して新規プロジェクトを立ち上げる事になり、 ハイレベルのスキルをお持ちのエンジニアの方を募集し さらにレベルの高いプラットフォームを構築していきたいと考えています。 Java,Python,Ruby
案件の必須スキル
・Ruby on RailsでのWebアプリケーション、APIの開発経験(2年以上) ・Java,Phthon,rubyでの開発経験(2年以上) ・プロジェクトの立ち上げの経験 ・ミドルウェア(Apache,Tomcat,MySQL)に関する構築・運用・チューニング経験 ・Linuxに関する構築・運用・チューニング経験 ・WebAPIの利用・構築に関する知識・経験 ・クラウド基盤を利用した自動化経験 ・Ansibleなどの構成管理ツールの利用経験 ・L2/L3/L4通信に関する基本的な知識 ・Webセキュリティに関する基本的な知識
ビッグデータ関連部署において、 共通基盤となるレコメンドAPIの開発案件になります。 インフラ基盤はAWSを利用しており、 主にこのAWSの環境構築、運用、チューニングをご担当頂きます。 レコメンドアルゴリズムの実装、各サービスへの展開、装着を 一部補助頂く可能性もございます。 Java,AWS
案件の必須スキル
・AWSを利用した環境の構築 ・インフラの運用/チューニング(トラフィック予測/制御及びDB) ・Unix系OS(Linuxでも可)の使用経験1年以上 ・Javaを用いた開発の経験
医療系プラットフォームのサーバーサイド開発。 サーバーサイド専門としてAWSのサービスを活用しながら、技術の選定から実装まで行っていただきます。
案件の必須スキル
・Pythonでのサーバーサイド設計/開発/テスト経験 ・TypeScriptでのフロント開発経験(FW指定無し) ・AWS、GCP、 Azure等のパブリッククラウド環境下での開発経験 ・RDBMS又はNoSQLの知識 or 設計経験
■具体的な業務・担当工程 ・メンバーは主に、設計書作成~実装~簡単な結合テストをまでを担当していただきます(リリース前の本格的な結合試験はQAチームが担当) ・新規プロダクトの開発となります。 ・開発フェーズ:3年前から開発がスタートし、2年間のPoC期間を経て1年前から正式にサービスリリース 実際に多くの企業に使っていただくことで、ユーザーニーズの解像度が上がり、現在は多くの新機能の開発に取り組んでおります。 ■開発環境 Language: Ruby / Go / HTML5 / Javascript / Sass Framework:Ruby on Rails / Vue.js Middleware:Hadoop / Spark / Presto / nginx AWS Service:DynamoDB / Aurora / Lambda ※新技術は積極的に検証・採用して開発を進めます。 ■働き方 時短勤務のご相談可能です。 ■チーム環境 プロダクト全体:50名ほど 開発チーム:30名 LQA、インフラ、モバイル、Webチーム Webチーム:10名 L今回はWebチームの募集 L機能ごとに3~5名ほどのチームを組む フロント、バックエンドと明確にチーム分けはされておらず、フロントが強い方/バックエンドが強い方/フルスタックで開発が出来る方と各メンバーのスキルに濃淡があります。 チーム単位で協力して作業を進めるようにしており、 実装で不明な点などがあれば、チーム内で質問すれば助けてもらえるような雰囲気で行っております。
案件の必須スキル
・Go言語での2年以上の開発経験がある方
■具体的な業務・担当工程 ・メンバーは主に、設計書作成~実装~簡単な結合テストをまでを担当していただきます(リリース前の本格的な結合試験はQAチームが担当) ・新規プロダクトの開発となります。 ・開発フェーズ:3年前から開発がスタートし、2年間のPoC期間を経て1年前から正式にサービスリリース 実際に多くの企業に使っていただくことで、ユーザーニーズの解像度が上がり、現在は多くの新機能の開発に取り組んでおります。 ■開発環境 Language: Ruby / Go / HTML5 / Javascript / Sass Framework:Ruby on Rails / Vue.js Middleware:Hadoop / Spark / Presto / nginx AWS Service:DynamoDB / Aurora / Lambda ※新技術は積極的に検証・採用して開発を進めます。 ■働き方 時短勤務のご相談可能です。 ■チーム環境 プロダクト全体:50名ほど 開発チーム:30名 LQA、インフラ、モバイル、Webチーム Webチーム:10名 L今回はWebチームの募集 L機能ごとに3~5名ほどのチームを組む フロント、バックエンドと明確にチーム分けはされておらず、フロントが強い方/バックエンドが強い方/フルスタックで開発が出来る方と各メンバーのスキルに濃淡があります。 チーム単位で協力して作業を進めるようにしており、 実装で不明な点などがあれば、チーム内で質問すれば助けてもらえるような雰囲気で行っております。
案件の必須スキル
・Vueの経験をお持ちの方
葬祭サービスを提供する企業にてデータ分析基盤の開発を行っていただきます。 ビジネス上のつながりのデータや、ユーザーの行動データを活用するための分析基盤開発を行うことで、事業の成長を担っていただくことがミッションです。 【具体的な作業内容】 ・データのETL処理やETL処理のためのスクリプト、システム開発運用業務 ・データの傾向や内容を知るための集計、分析、可視化 ・AWSを用いた分析基盤構築および運用業務 ・データのセキュリティ対応 ・ドキュメント整備、啓蒙活動 ・Web広告の改善のユーザーの行動分析 ・TableauなどのBIツールなどの連携 Python
案件の必須スキル
・業務での開発経験:2年以上(言語不問) ・パブリッククラウドの利用経験:1年以上 ・SQLを用いた業務開発経験:1年以上
当社の各プロダクトのバックエンド開発を行って頂きます。 AWSのマネージドサービスをフル活用しながら将来の事業の変化に合わせた技術の選定、設計、実装を進めます。 サーバーレス化、一部機能のマイクロサービス化、開発効率やスケーラビリティなども考慮しつつ、いかに早く効率的にデリバリーしてユーザに使って頂くかのバランスを取るかをチームで決定しながら開発を進めます。 また一方で、医療情報を扱う事業者として、他の分野と比較して信頼性・セキュリティなどに求められるレベルも高く、インフラ構成も含めて実装を進めます。 高い信頼性やパフォーマンスを維持しつつ安定して開発を継続するため、アプリケーションコード、AWSのインフラ、DevOps などをより良い形で実装、改善をして頂ける方を募集します。 ※エンド直案件となります。面談は弊社同席で1回行います。
案件の必須スキル
・汎用的な高いプログラミング能力 ・AWS/GCP/Azure などのクラウドサービスでの開発経験 ・RDBMS / NoSQLの知識・設計の経験 ・Webアプリケーションでのセキュリティ知識・運用・経験 ・CI/CD、ログ収集、監視などのDevOpsの経験 ・Infrastructure as Codeの知識・経験 【求める人物像】 ・チームで成果を出すことに喜びを感じる方 ・HRT(謙虚・尊敬・信頼)の姿勢を大切にしている方 ・医療に関心のある方 ・課題提起から実際に手を動かして解決してくれる方 ・新しい技術などに好奇心を持ち積極的に挑戦してくれる方 ・中長期でシステムを維持するためのコードの質や開発プロセスを大事にする方 ・アジャイルソフトウェア開発に関心のある方 ・あるべき論だけではなく、現状を踏まえた上で清濁併せのんでプロジェクト推進ができる方 ・主体的に動ける方
不動産業界向けデータプラットフォームシステムの基盤構築に携わっていただきます。 ・高速かつ容易な分析を可能とする基盤のアーキテクチャ検討 ・データ分析基盤の構築、運用 ・データソース間の移送、統合 ・データ分析を必要とするビジネスメンバーのサポート、分析作業 AWS
案件の必須スキル
・AWS基盤構築経験:3年以上 ・テーブル設計、DBチューニングの実務経験 ・SQLを使ったデータ集計、データ分析業務の経験 ・RDBMSに対する知識
データ分析プラットフォーム (Databricks) の運用、AWS 利用コスト最適化に関わる業務を実施していただきます。 ▼想定される主な業務 ・利用実態 (既存のリソースの稼働状況、設定されている権限) の調査 ・各種設計ポリシーを元に AWS リソース全般の設計・実装 ・運用ドキュメント (GitHub, Google Workspace) の増補、改善 ・Redash, Databricks を使用したダッシュボードの実装 ・AWS コスト削減方針検討・ライフサイクルなどの実装 AWS
案件の必須スキル
・SQLに関する基本的な知識 ・AWSを利用した開発・運用経験:3年以上 ・Pythonを利用したアプリケーション開発経験:1年ほど
自社プロダクトのデータ分析基盤(API / 解析基盤)の開発・運用を行って頂きます。 Go + Scala + Spark Stream + Hadoopなど最新の技術を積極的に取り入れながら、 データ分析基盤を1から開発する経験ができます。 (作業内容例) ・API、WEBアプリケーションの設計、開発、運用 ・リアルタイム分析基盤の設計、開発、運用 ・広告配信基盤の設計、開発、運用 ・機械学習を使った異常検知/未来予測基盤の設計、開発、運用 Go,Scala
案件の必須スキル
・Java, Ruby, Python, Golangなどのプログラミング言語での開発経験 ・Git / Githubを利用した開発経験 ・RDBMS(MySQL 又は Oracle)を使った開発経験
アドネットワークサービスの広告配信アルゴリズム分析基盤の構築をご担当いただきます。 同部署にはアドテクエンジニアも多く所属しており、ディスカッションを行いながらアルゴリズム構築となります。 Python,DB(インフラ)
案件の必須スキル
大規模データ分析経験 分析用ソフトウェアの利用経験
社内ソーシャルゲームシステムにおいて、 社内DBの要件定義、設計、構築、運用といった データベースの全般業務を担当して頂きます。 ・データベースシステムの選定(ハードウェア、OS、ストレージ、DB統合監視ソフトなど) ・データベースの企画、設計(論理・物理)、構築、運用管理 ・データベースの移行、検証、性能試験 ・データベースのパフォーマンスチューニングおよびトラブルシューティング ・データベースの標準化(SQLコーディング、設計・構築方針) ・データベースプログラムの開発(ストアドプロシージャ、DB性能監視プログラムなど) DB(インフラ)
案件の必須スキル
・MySQLデータベースに関するDBA経験3年以上 ・Linux環境でのDBA実務経験がある方
自社サービスに関わる広告配信周りの開発を行っていただきます。 広告配信サーバーの開発や、広告配信ツール、 配信アルゴリズムの最適化やインフラ構築など、 フルスタックエンジニアとして活躍していただきます。 [開発環境] Ruby on Rails、nginx、Hadoop、Redis、memcached MySQL、MongoDB など Ruby,NW(インフラ),サーバ(インフラ)
案件の必須スキル
・Ruby on Rails を使用したWEBアプリケーションの開発経験 ・サーバー構築などWebサービスを支えるインフラ対応経験
メディアプランニングシステム、アクセス解析ツールなどのマーケティングソリューションやPC/スマートフォン向け広告配信システムなど、 お客様の既存事業、新規事業を支えるシステムの設計・開発・運用を担当します。 広告サービス広告主向け、媒体向けに分かれており、プロダクトは20個以上あります。 (広告プランニング・広告業務サポート、第三者配信プラットフォーム/クリエイティブの最適化、、リッチ広告配信、ターゲティング広告、データベース広告配信etc) 要望、経験に合わせ、下記5つのいずれかを担当します。 ・広告配信プラットフォーム ・インターネット広告プランニングシステム ・新規プロダクト作成 ・ビックデータ解析(DNP) ・インフラ Java,Ruby,C#.NET,サーバ(インフラ)
案件の必須スキル
※担当プロダクトにより要件が異なります (広告配信プラットフォーム) ・C、Javaの経験 (インターネット広告プランニングシステム) ・.NET(FW2.0~4.0)、SQLserver2008以降~の経験 (新規プロダクト作成) ・Ruby2系、Rails4系の経験 (ビックデータ解析) ・Hadoop、Hiveの経験 (インフラ) ・NW、Sever(RedHat、Windows)、MySQLのいずれかに精通している方
■具体的な業務・担当工程 自社メインプロダクトの開発となります。 ・フロントエンドからサーバーサイド、バッチの開発とフルスタックに1つの機能の開発を行っていただきます。 ※お強みに合わせて要相談 ・仕様の確認、実装方針検討、設計、実装、テスト、コードレビューと、開発の工程を一通り担当していただくため、要件定義から仕様検討まで詳細設計からコーディングまでといった限られた役割ではなく、裁量大きく開発をしたい方、能動的に開発を推し進めて頂ける方を求めています。 ■開発環境 Language: Ruby / Go / HTML5 / Javascript / Sass Framework:Ruby on Rails / Vue.js Middleware:Hadoop / Spark / Presto / nginx AWS Service:DynamoDB / Aurora / Lambda ※新技術は積極的に検証・採用して開発を進めます。 ■働き方 時短勤務のご相談可能です。 ■チーム環境 チーム単位で協力して作業を進めるようにしており、 実装で不明な点などがあれば、チーム内で質問すれば助けてもらえるような雰囲気で行っております。
案件の必須スキル
・Ruby on Rails経験あり(2年程度以上) ・Vue.js / React / Typescriptのいずれかの開発経験をお持ちの方
IoT、RPA(ロボティック・プロセス・オートメーション)に関するデータ収集およびダッシュボート、および関連アプリケーションの開発を行っていただきます。 ダッシュボードについては、PowerBIやTableauなどのツールを利用する可能性もあります。
案件の必須スキル
・Webアプリケーションの開発経験が2年以上 ・AWS、AzureなどのPaaS利用経験があること ・PHP、Perl、Python、Rubyいずれかを利用した開発経験 ・HTML5、CSS、JavaScriptの基本的知識と利用経験 ・言語に対応したWebアプリケーションフレームワークの利用経験 ・データベース系ミドルウェアもしくはツールの利用経験
案件概要:BtoB向け AIサービス 移行プロジェクト(AWS,Kubernetes) 業務内容: プライベートクラウドで管理されたKubernetes環境やHadoop環境を パブリッククラウドへ移行する。移行に伴い主に下記業務を想定 ・パブリッククラウドのインフラ設計・構築 ・Kubernetes コンテナ環境の設計・構築 ・CI/CD、モニタリング環境の設計・構築 勤務時間:10:00-19:00※相談可 場所:渋谷※フルリモート 外国籍:応相談 ビジネスレベル、日本在住の方のみ
案件の必須スキル
・パブリッククラウド(AWS、GCP、Azure等)を利用したインフラ設計・構築・運用経験 ・Kubernetesを使用したコンテナ環境の設計・構築・運用経験 ・IaC、CI/CD、Observabilityの考え方を取り入れたインフラ設計・構築・運用経験
1 - 30件/全291件
この条件の新着案件情報を受け取る
単価で絞り込み
エリアで絞り込み
職種で絞り込み
この条件の新着案件情報を受け取る
■Hadoopとは Hadoopとは、大規模データの分散処理を行うためのオープンソースソフトウェアフレームワークで、膨大な量の非構造化データや半構造化データを高速に処理することができます。Hadoopは、分散ファイルシステムのHDFSと、並列処理フレームワークのMapReduceを中心に、各種ツールやライブラリで構成されています。 Hadoopの特徴として、コモディティハードウェア上に構築された分散クラスタ環境で動作すること、データの局所性を考慮した処理により高いスループットを実現していること、タスクの並列実行とフォールトトレランスによる高い処理効率と耐障害性を持つこと、スキーマオンリードによるデータの柔軟な取り扱いが可能なこと、Hiveなどの高水準言語によるデータ処理が行えること、HBaseによるリアルタイム性の高いデータアクセスが可能なこと、Mahoutなどの機械学習ライブラリが利用可能なことなどが挙げられます。 Hadoopができる開発は、ログ解析、Webクローリング、テキストマイニング、リコメンデーション、異常検知、予測分析、グラフ解析など、ビッグデータに関わる幅広い分野での活用が可能です。また、データレイク構築やETL処理の基盤としても利用されています。 Hadoopを活用している世界的サービスやプロダクトは、Yahoo!、Facebook、Twitter、LinkedIn、eBay、Spotify、Uber、Airbnb、Pinterest、Netflixなど、大規模なデータを扱うWebサービスやアプリケーションで広く採用されています。また、金融機関におけるリスク管理、小売業におけるマーケティング分析、通信事業者におけるネットワーク最適化、ヘルスケアにおける創薬支援など、様々な業種でHadoopを活用したビッグデータ活用が進んでいます。クラウドサービスとしてもAmazon EMR、Azure HDInsight、Google Cloud Dataprocなどが提供されており、オンプレミスだけでなくクラウド環境でのHadoopの利用も一般的になっています。ビッグデータ処理の標準的なプラットフォームとして広く普及しており、Hadoopエコシステムを構成する各種ツールやライブラリも活発に開発が行われています。 ■Hadoopを活用するメリット この章ではHadoopを活用するメリットについて説明します。 Hadoopを導入することにより、具体的に以下のようなメリットがあります。 ・HDFSによる分散ファイルシステムにより大規模データを効率的に格納できる ・MapReduceによる並列分散処理により大量データの一括処理が可能になる ・商用ディストリビューションの提供により導入・運用管理のハードルが下がる ・スキーマレスで非構造化データの格納にも対応可能 ・Hiveなどによるクエリ実行により既存のSQL知識の活用が可能 ・HBaseによるカラム指向のデータベースとしてリアルタイム性の高いデータアクセスが可能 ・OSSを中心とするエコシステムの豊富さにより拡張性に優れている Hadoopは大規模データ処理の基盤技術として広く普及しており、ビッグデータ活用の中核を担うプラットフォームとなっています。上記導入する上でのメリットを踏まえて、導入可否を検討することをおすすめします。 ■Hadoopを活用するデメリット この章ではHadoopを活用するデメリットについて説明します。 Hadoopを導入することにより、具体的に以下のようなデメリットがあります。 ・複雑なクラスタ構成の設計と運用に高度なスキルが必要とされる ・NameNodeへの負荷集中によりシステム全体のボトルネックになる恐れがある ・ディスクI/Oに依存するため他のメモリベースの処理基盤に比べ性能面で劣る ・MapReduceの記述にJavaの知識が必要でハードルが高い HadoopはメリットがHadoopはメリットが多いですが、運用管理の難しさや性能面の課題など注意すべき点がいくつかあることを理解しておきましょう。 Hadoop導入を今後検討している企業はHadoopを活用するメリットデメリットを比較した上で決めると後悔が少ないでしょう。