1 - 50件/全174件
■概要 自社開発サービスおよび社内システムを対象とした作業 ■具体的には ・Linuxサーバーの構築・運用 ・ミドルウェアの設定・チューニング・運用 ・アプリケーションのデプロイと運用・監視
案件の必須スキル
【必須】 ・新しい知識への好奇心 ・インフラのPJが今後もやりたい方 ・Linuxサーバの運用経験 ・ミドルウェアの運用経験 (MySQL、MongoDB、Redis、Hadoopなど) ・構成管理ツールの知識・経験 (ansible、puppet、chefなど) ・運用監視ツールの知識・経験 (zabbix、nagios、cacti) ・バージョン管理システムの知識・経験 (git、subversionなど) 【尚良】 ・RDBMSのチューニングスキル (特にMySQL、MariaDB) ・Gentoo Linuxサーバの運用経験
同社で運営する広告配信アプリの新規開発に携わっていただきます。 データベース、ネットワーク等、各分野のスペシャリストが在籍しており、 最新技術に触れられる点が魅力です。
案件の必須スキル
【必須】 ・下記いずれかでの開発経験 (Scala、Java、PHP、Ruby) 【尚良】 ・広告業界の知識、経験 ・Hadoopの使用経験
【業務内容】 大手テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属していただきます。 ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。 インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。 アドテクやクラウド、データ収集/分析関連の最新技術を学び、経験することができ、かつテレビ局特有の高アクセス環境で技術的なチャレンジができる現場です。
案件の必須スキル
【必須スキル】 ・SQLを使ったDBプログラミングの開発経験 ・Python、PHP、JAVA、Golangのいずれかの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・AirflowやDigDagなどのワークフロー管理ツールの利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
テレビ局の大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、視聴者データとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属して頂きます。 【具体的業務】 ・ビッグデータ基盤システムの構築、開発、保守 ・収集データを基にした社内外に向けた分析ツールの開発 ・機会学習システム(社外製品)を内製化して再構築 【開発環境】 ・言語:PHP(Laravel)、Python ・インフラ:AWS ・情報共有ツール:Backlog、Slack、 Googleハングアウト ・その他:Hadoopエコシステム、HDFS、MapReduce、 Hive、Pig、Presto、Memcached、Redis、 Ansible、Jenkins、Chef、Docker
案件の必須スキル
【必須】 ・Python、PHPのいずれかの開発経験 ・SQLを使ったDBプログラミングの開発経験 ・AWS等のパブリッククラウドを利用したサービス開発・運用経験 ・Gitなどのソースコード管理ツールの使用経験 【尚可】 ・Hadoopエコシステム、HDFS、MapReduce、Hive、Pig、Prestoなどの関連技術の利用経験 ・Redis、MemcachedなどのKVS利用経験 ・Git、Ansible、Jenkins、Chef、MackerelなどのDevOps系の知識や経験 ・高負荷対策、パフォーマンスチューニングに関する知識や経験
当社の各プロダクトのバックエンド開発を行って頂きます。 AWSのマネージドサービスをフル活用しながら将来の事業の変化に合わせた技術の選定、設計、実装を進めます。 サーバーレス化、一部機能のマイクロサービス化、開発効率やスケーラビリティなども考慮しつつ、いかに早く効率的にデリバリーしてユーザに使って頂くかのバランスを取るかをチームで決定しながら開発を進めます。 また一方で、医療情報を扱う事業者として、他の分野と比較して信頼性・セキュリティなどに求められるレベルも高く、インフラ構成も含めて実装を進めます。 高い信頼性やパフォーマンスを維持しつつ安定して開発を継続するため、アプリケーションコード、AWSのインフラ、DevOps などをより良い形で実装、改善をして頂ける方を募集します。 ※エンド直案件となります。面談は弊社同席で1回行います。
案件の必須スキル
・汎用的な高いプログラミング能力 ・AWS/GCP/Azure などのクラウドサービスでの開発経験 ・RDBMS / NoSQLの知識・設計の経験 ・Webアプリケーションでのセキュリティ知識・運用・経験 ・CI/CD、ログ収集、監視などのDevOpsの経験 ・Infrastructure as Codeの知識・経験 【求める人物像】 ・チームで成果を出すことに喜びを感じる方 ・HRT(謙虚・尊敬・信頼)の姿勢を大切にしている方 ・医療に関心のある方 ・課題提起から実際に手を動かして解決してくれる方 ・新しい技術などに好奇心を持ち積極的に挑戦してくれる方 ・中長期でシステムを維持するためのコードの質や開発プロセスを大事にする方 ・アジャイルソフトウェア開発に関心のある方 ・あるべき論だけではなく、現状を踏まえた上で清濁併せのんでプロジェクト推進ができる方 ・主体的に動ける方
【20代~40代のエンジニア活躍中!】■概要 お客様ネットワーク網(全国)にあるネットワーク機器(ルータ等)を監視するシステム開発です。 ■主な担当工程 詳細設計~結合試験 ■開発環境 Java、SQL、Eclipse、クライアント:Windows サーバ:Linux、DB:PostgreSQL/Hbase -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・Javaアプリケーション開発経験3年以上 ・機能/詳細設計の経験2年以上
【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験
【20代~40代のエンジニア活躍中!】■概要 お客様ネットワーク網(全国)にあるネットワーク機器(ルータ等)を監視するシステム開発です。 ■主な担当工程 詳細設計~結合試験 ■開発環境 Java、SQL、Eclipse、クライアント:Windows サーバ:Linux、DB:PostgreSQL/Hbase -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・Javaアプリケーション開発経験3年以上 ・機能/詳細設計の経験2年以上
【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験
アドテクノロジー/デジタルマーケティングの領域において、最先端のテクノロジーを活用し、顧客企業様の収益最大化に役立つプロダクトを独自開発しています。 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【出社可能な方、活躍中!】
案件の必須スキル
・Hadoopのご経験がある方
地図広告プラットフォーム開発 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【出社可能な方、活躍中!】
案件の必須スキル
・DWHの構築経験がある方 ・AWSのGlue、Athena、RDS、ClickHouseなどのデータ管理と分析ツールの経験ある方 ・Hadoop,hive,sparkなどの経験がある方 ・データ分析の経験がある方(Python歓迎) ・BIツールの経験がある方
マーケティングデータ処理開発 【プロジェクト期間】随時~中長期 【開発環境】 -言語:Java、Scala(一部:Python、Ruby) 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【出社可能な方、活躍中!】
案件の必須スキル
・Hadoop、Hive、Sparkのいずれかを経験2年以上ある方 ・コミュニケーション力がある方
【概 要】 Hadoop運用/およびLinuxサーバの運用業務となります。 オンプレサーバ運用かつ、新規運用となりますのでLinux運用経験/運用設計が可能な方を想定しています。 ・Hadoopまたは類似システムの運用経験があること (優先度としては、Hadoop>類似のシステムSpark/AmazonKinesisなど) 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【出社可能な方、活躍中!】
案件の必須スキル
・Hadoopの経験がある方または類似のシステムSpark/AmazonKinesisなどの経験
◆業務概要 ・RDBのデータベース設計 ・GlueJobでPythonを利用したETL処理の設計・開発 ・APIGateway、Lambdaを利用したAPI開発 調剤薬局向けサービスを複数提供している企業にてサービスを総括的に管理する管理コンソールの開発業務をご担当頂きます。 管理コンソールに必要な機能の集約、追加実装等をお願い致します。 ◆就業形態について 現状、開発メンバーのほとんどはフルリモートにて業務を行っております。 週に何日かご出社をご希望の際にはご相談ください。 ◆補足 現場チームについては、 様々な分野での経験を持つ少数精鋭のメンバーが集まっております。 他部署を含め業務委託のエンジニアも複数名在籍しており、社員エンジニアと垣根のない働きやすい環境です。 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【首都圏在住の方、活躍中!】
案件の必須スキル
・Pythonの利用経験(基本設計~テスト) ・AWSの各サービスの運用経験 ・DWH(データウェアハウス)及び、データマート向けのETLジョブ開発
【20代~40代のエンジニア活躍中!】■概要 お客様ネットワーク網(全国)にあるネットワーク機器(ルータ等)を監視するシステム開発です。 ■主な担当工程 詳細設計~結合試験 ■開発環境 Java、SQL、Eclipse、クライアント:Windows サーバ:Linux、DB:PostgreSQL/Hbase -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・Javaアプリケーション開発経験3年以上 ・機能/詳細設計の経験2年以上
【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験
【20代~40代のエンジニア活躍中!】■概要 お客様ネットワーク網(全国)にあるネットワーク機器(ルータ等)を監視するシステム開発です。 ■主な担当工程 詳細設計~結合試験 ■開発環境 Java、SQL、Eclipse、クライアント:Windows サーバ:Linux、DB:PostgreSQL/Hbase -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・Javaアプリケーション開発経験3年以上 ・機能/詳細設計の経験2年以上
【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験
【20代~40代のエンジニア活躍中!】■概要 お客様ネットワーク網(全国)にあるネットワーク機器(ルータ等)を監視するシステム開発です。 ■主な担当工程 詳細設計~結合試験 ■開発環境 Java、SQL、Eclipse、クライアント:Windows サーバ:Linux、DB:PostgreSQL/Hbase -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・Javaアプリケーション開発経験3年以上 ・機能/詳細設計の経験2年以上
【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験
【20代~40代のエンジニア活躍中!】■概要 お客様ネットワーク網(全国)にあるネットワーク機器(ルータ等)を監視するシステム開発です。 ■主な担当工程 詳細設計~結合試験 ■開発環境 Java、SQL、Eclipse、クライアント:Windows サーバ:Linux、DB:PostgreSQL/Hbase -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・Javaアプリケーション開発経験3年以上 ・機能/詳細設計の経験2年以上
【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験
【20代~40代のエンジニア活躍中!】■概要 お客様ネットワーク網(全国)にあるネットワーク機器(ルータ等)を監視するシステム開発です。 ■主な担当工程 詳細設計~結合試験 ■開発環境 Java、SQL、Eclipse、クライアント:Windows サーバ:Linux、DB:PostgreSQL/Hbase -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・Javaアプリケーション開発経験3年以上 ・機能/詳細設計の経験2年以上
【20代~40代のエンジニア活躍中!】■概要 バックエンドエンジニア業務をお任せします。 ■具体的な作業内容 RDBのデータベース設計 AWS Glue JobでPythonを利用したETL処理の設計、開発 Amazon API Gateway、AWS Lambdaを利用したAPI開発 技術的知見からの、プロダクトオーナと協調した仕様策定 AWS関連リソースのより積極的な活用 Git flowベースの開発進行 -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・AWSの各サービスの運用経験 ・データウェアハウス及びデータマート向けのETLジョブ開発 ・Pythonの利用経験 ・複数人でチームを組みサービス開発をした経験
【20代~40代のエンジニア活躍中!】■概要 お客様ネットワーク網(全国)にあるネットワーク機器(ルータ等)を監視するシステム開発です。 ■主な担当工程 詳細設計~結合試験 ■開発環境 Java、SQL、Eclipse、クライアント:Windows サーバ:Linux、DB:PostgreSQL/Hbase -------------------------------------------------------------------------------------- Midworkは正社員並みの保障を徹底追求。 充実の福利厚生で安定したフリーランスに。 --------------------------------------------------------------------------------------
案件の必須スキル
・Javaアプリケーション開発経験3年以上 ・機能/詳細設計の経験2年以上
インターネット広告のログデータなどを用いたデータ分析業務、およびそのデータ分析のためのツール開発などを行っていただきます。 Python
案件の必須スキル
・Pythonでの開発経験:3年以上 ・データベース、SQLを使用した開発・運用経験 ・クライアントもしくは社内のビジネス職に対して社内のエンジニアと連携しながらプロジェクトを推進した経験
〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、近年スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中でスポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python
案件の必須スキル
・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
〇事業展開について 当組織では、「スポーツベッティング×海外」をテーマとした事業展開を行っています。 スポーツベッティングとは、近年急速に世界中で盛り上がりを見せており、各種競技の結果やプレーに対して賭けて楽しむものです。 スポーツが一度に多くの人に共感・感動を提供できるコンテンツであり、こうしたスポーツの持つ根源的な熱量をコミュニケーションに繋げていくことに可能性を感じ、スポーツ領域への挑戦を行っているという背景があります。 コミュニケーションサービスを得意としている中で、スポーツ領域に取り組むことで、新たな価値提供や盛り上がりを見出せる可能性があり、スポーツ領域の中でもまだまだ可能性を秘めているスポーツベッティングについては、ビジネス側面でもさらに伸びていくと感じています。 〇具体的な作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) 〇役割 事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること ■ 分析基盤整備 ・ダッシュボードの作成(KPIツリー、目的別ボード) ・ユーザー行動の可視化(推移、利用特性) ・分析基盤整備の推進(データ取得の推進、課題点洗い出し) ■ 分析 ・データを用いた仮説検証(機能、UI改善、施策) ・ユーザー行動(数値化、可視化、セグメント分類) ・効果検証(広告、キャンペーン、メールマガジン等) ・得られたデータを元にしたインサイトの提供 Python
案件の必須スキル
・SQLを用いたデータ分析やデータ集計の経験:3年以上 ・PythonやRなどを利用したデータ分析業務の経験:3年以上 ・データ分析経験:3年以上 ・Google Analytics, BIツール、エクセル等を利用した、サービスの分析および示唆出しの経験 ・BIツール(Looker、Tableau、Redash等)でのダッシュボード経験
自社サービスである資金調達プラットフォームのデータサイエンティストをお任せします。 現在、順調にご利用いただける顧客が増えており、顧客からあずかる財務データ、売上データや 当社サービスの利用実績をもとに、アルゴリズム開発を進め、サービスの精度を上げていただきます。 【プロダクトについて】 22年4月にローンチしたスタートアップの資金調達に新しい選択肢を提供するFintechサービスです。 顧客の財務データから未来の売り上げを査定し、査定を根拠に資金を提供しております。 現在は顧客の会計ソフトとAPI連携し、財務データの査定を行う機能などをローンチしておりますが、 サービス提供を開始したばかりでもあるため、お客様の声を吸い上げてのユーザビリティを向上していける開発体制を目指しております。 また、今後は社内のオペレーションフロー(財務データの提出~スコアリング(査定)~資金提供~返済)を効率化し、 ”より早く””より多く”の顧客利用実績をつくるためのシステム開発や、新たなサービスもこれからローンチしていく予定がございます。 将来的には東南アジアなど海外でのサービス展開も見据えております。 【チーム体制】 プロダクト開発部:8~9名前後 CTO、PdM、エンジニア2名、データサイエンティスト、業務委託メンバー数名 ※フランス、インド、ポーランドなど多国籍なメンバーが活躍しております Python,その他
案件の必須スキル
・データサイエンティストとしてアルゴリズム開発のご経験:3年以上 ・ビジネスレベルの英語力
HadoopやDWH関連のデータ分析基盤構築支援のサービスをメインで展開されている弊社顧客内の請負開発チーム内において、AWS ECS、Snowflake、Datadog、Databricks等を使用したデータ分析構築をご一緒に担当いただける方を募集しております。 ※顧客内に複数案件が同時に走っている為、技術者様のスキルセットに併せて、見合う案件を面談時にご紹介いたします AWS
案件の必須スキル
・データ基盤開発のご経験 ・AWSの構築経験 ・BIツール使用経験
不動産業界向けデータプラットフォームシステムの基盤構築に携わっていただきます。 ・高速かつ容易な分析を可能とする基盤のアーキテクチャ検討 ・データ分析基盤の構築、運用 ・データソース間の移送、統合 ・データ分析を必要とするビジネスメンバーのサポート、分析作業 AWS
案件の必須スキル
・AWS基盤構築経験:3年以上 ・テーブル設計、DBチューニングの実務経験 ・SQLを使ったデータ集計、データ分析業務の経験 ・RDBMSに対する知識
マーケティングソリューションやデータ活用ソリューションを展開する企業にて、 社内外のデータを利用したプロジェクトにエンジニアとして関り、 プロジェクト内での課題の把握と必要な作業の洗い出し、 実作業としてデータ加工、データパイプラインやワークフローの作成、ETL処理を行っていただきます。 ・社内に蓄積されているデータとそれを利用する環境の状況整理 ・データを用いたプロジェクトにおける課題の把握 ・アドホックなデータ抽出作業、データ加工処理 ・データパイプラインの構築や行われる処理の自動化 ・ETL処理のワークフロー化、およびその作業のシステム的な監視の構築 【具体的な仕事内容】 ・データサイエンティスト、エンジニア、ビジネス職がメンバーとして参加するプロジェクト内で必要なデータ加工処理 ・課題解決に必要なシステム要件の整理とその構築 ・処理の自動化や監視など人の手がなるべく掛からないようにするシステム運用の対応 SQL
案件の必須スキル
・SQLに関する基本的な知識 ・複数のRDBMSを扱った開発経験 ・Webサービスやプロダクトのデータを用いた抽出業務やデータ加工処理の経験 ・プログラミング言語を利用したアプリケーション開発経験 ・パブリッククラウドを利用した開発経験
動画プラットフォーム事業にて取得しているデータの分析を担当して頂きます。日々蓄積される膨大なデータを用いて集計や統計分析を行いサービス改善、課題解決を行っていただきます。 <お任せする予定の作業> ・KPI集計や統計分析、ダッシュボードの構築 ・分析を実現するためのデータ収集や段取り ・企画との連携、サービスの開発支援・施策支援 ・他部署からの集計依頼や分析相談 Python
案件の必須スキル
・PythonやRなどを利用したデータ分析の経験:5年以上 ・SQLを用いたデータ分析やデータ集計の経験
データ分析プラットフォーム (Databricks) の運用、AWS 利用コスト最適化に関わる業務を実施していただきます。 ▼想定される主な業務 ・利用実態 (既存のリソースの稼働状況、設定されている権限) の調査 ・各種設計ポリシーを元に AWS リソース全般の設計・実装 ・運用ドキュメント (GitHub, Google Workspace) の増補、改善 ・Redash, Databricks を使用したダッシュボードの実装 ・AWS コスト削減方針検討・ライフサイクルなどの実装 AWS
案件の必須スキル
・SQLに関する基本的な知識 ・AWSを利用した開発・運用経験:3年以上 ・Pythonを利用したアプリケーション開発経験:1年ほど
テレビ視聴データをWEBで分析できるマーケティング分析ツールを自社で開発されている企業です。 ターゲットのテレビ視聴やCM接触を詳細プロフィールで分析でき、 広告宣伝をはじめ、メディア営業・プランニングにも活用されているサービスとなります。 ■業務内容 自社SaaSシステムの刷新プロジェクトの基本設計において、アーキテクトと連携しながらインフラの検討及び構築をお願いします。 ビッグデータの解析・集計処理も行うため、解析基盤の検討・構築にも携わっていただきます。 ■具体的な作業内容(一例です) ・Terraform、CloudFormationによるIaaS環境の整備 ・GitHub Actionsなどを利用したCI / CD環境の整備 ・ビッグデータ解析・集計基盤の整備 AWS
案件の必須スキル
・ビッグデータ解析基盤の構築に関する実務経験:3年以上 ・IaaS、CI/CDの実務経験:2年以上
自社プロダクトのデータ分析基盤(API / 解析基盤)の開発・運用を行って頂きます。 Go + Scala + Spark Stream + Hadoopなど最新の技術を積極的に取り入れながら、 データ分析基盤を1から開発する経験ができます。 (作業内容例) ・API、WEBアプリケーションの設計、開発、運用 ・リアルタイム分析基盤の設計、開発、運用 ・広告配信基盤の設計、開発、運用 ・機械学習を使った異常検知/未来予測基盤の設計、開発、運用 Go,Scala
案件の必須スキル
・Java, Ruby, Python, Golangなどのプログラミング言語での開発経験 ・Git / Githubを利用した開発経験 ・RDBMS(MySQL 又は Oracle)を使った開発経験
仮想通貨関連のサービスを新規事業のiOS開発をご担当頂きます。 これから開発する予定ですので、最上流の部分から携わっていただき、 実装、テストをお任せする予定です。 【開発環境】 言語:Java8、jquery、Scala、Swift バージョン管理:Git フレームワーク:SpringBoot 本番環境:AWS、GCP コミュニケーション:Slack、Atlassian CI:wercker DB:MySQL、Redis 大規模データ管理:hadoop 開発環境:Vagrant、Docker ログ収集:Fluentd、Embulk 自動テスト:junit 【組織関連コメント】 現在、コンテンツ事業部は20名弱の組織となっています。 プランナーやディレクター、デザイナーなど様々な職種がおります。 サーバー側のエンジニアは3名おり、ほぼ内製化をしております。 iOS,Android,AWS
案件の必須スキル
・Swiftでの開発経験 ・AWS/GCP等のクラウド構築経験
最先端のテクノロジーを駆使した次世代型マーケティングプラットフォーム開発において、 新規開発や保守開発、アーキテクチャの設計等、可能な範囲での開発支援をお願い致します。 デジタルマーケティング業界にて、最先端のスキルを身に付けることができ、 DevOps等の概念も積極的に取り入れておりますので、非常に刺激のある現場環境です。 <開発環境> ・言語: Ruby on Rails / Java / Scala / HTML5 / Javascript ・OS: Windows / Mac / Linux(Amazon Linux) ・DB: RDS / Redshift / DynamoDB / Aurora ・フロント: AngularJS / CSS3 ・サーバサイド: Hadoop ・IDE: PHPStorm / Netbeans / Eclipse / Vim / Sublime Text ※IDEは完全に個人裁量 ・その他: redmine / GitLab 7.3.3 / git / github / Confluence/ Bitbucket / Backlog Java,Scala,Ruby,HTML5/CSS3,JavaScript
案件の必須スキル
・JavaもしくはRubyでの開発経験3年以上
某大手不動産情報会社にてシステムの開発・改修・保守・運用及び付随案件の対応をお任せします。 ・物件API / HADOOP開発・改修・保守支援作業 ・画像関連開発・改修・保守支援作業 【開発環境】 Ruby ,MONGODB ,HADOOP Ruby
案件の必須スキル
・Ruby/rails経験2年以上 又は、Java/PHP 3年以上でRuby/rails経験1年以上 ・Rspec/JUnit等ユニットテスト経験
社内ソーシャルゲームシステムにおいて、 社内DBの要件定義、設計、構築、運用といった データベースの全般業務を担当して頂きます。 ・データベースシステムの選定(ハードウェア、OS、ストレージ、DB統合監視ソフトなど) ・データベースの企画、設計(論理・物理)、構築、運用管理 ・データベースの移行、検証、性能試験 ・データベースのパフォーマンスチューニングおよびトラブルシューティング ・データベースの標準化(SQLコーディング、設計・構築方針) ・データベースプログラムの開発(ストアドプロシージャ、DB性能監視プログラムなど) DB(インフラ)
案件の必須スキル
・MySQLデータベースに関するDBA経験3年以上 ・Linux環境でのDBA実務経験がある方
自社サービスに関わる広告配信周りの開発を行っていただきます。 広告配信サーバーの開発や、広告配信ツール、 配信アルゴリズムの最適化やインフラ構築など、 フルスタックエンジニアとして活躍していただきます。 [開発環境] Ruby on Rails、nginx、Hadoop、Redis、memcached MySQL、MongoDB など Ruby,NW(インフラ),サーバ(インフラ)
案件の必須スキル
・Ruby on Rails を使用したWEBアプリケーションの開発経験 ・サーバー構築などWebサービスを支えるインフラ対応経験
大手ECサイトやオンラインゲーム等、複数コンテンツを持っております企業様での 自社開発レコメンドエンジンの開発案件です。 現在、社内の各種事業に順次展開をしておりますが、 よりスピーディーに展開を進めるため、開発エンジニアを募集しております。 主な作業内容は下記を想定しております。 ・node.js でのAPI設計・開発・テスト ・Hiveクエリの作成・テスト・チューニング ・Spark プログラムの設計・開発・テスト ・Jenkinsジョブの作成 ・Ansible設定ファイルの作成 など Node.js
案件の必須スキル
・Java・MySQLを用いたアプリケーション開発に3年以上従事し、基本設計〜テストまでを単独で行える事 ・Hadoopの技術をキャッチアップし、ビッグデータ関連の技術習得に意欲的に取り組める方
EC,動画などの複数コンテンツを開発する企業様にて、 コアプラットフォームの設計・開発をご担当頂きます。 大規模サービスを高度な技術力で支え、 安定したサービスを提供していく事がコアプラットフォームの役割です。 1700万人のユーザーを持つ巨大プラットフォームの根底にある、 プラットフォーム開発・インフラ整備・ガイドラインの整備・セキュリティや品質の確保等、業務は多岐にわたります。 (作業内容例) ・新ポータル開発 ・各基盤APIの設計開発 ・各サービスに跨る基盤の整備 ・高負荷対策フォロー ・業務効率化、開発 ・運用の自動化 ・品質・セキュリティの確保 ・新規サービスの立ち上げフォロー (募集背景) 組織を横断して新規プロジェクトを立ち上げる事になり、 ハイレベルのスキルをお持ちのエンジニアの方を募集し さらにレベルの高いプラットフォームを構築していきたいと考えています。 Java,Python,Ruby
案件の必須スキル
・Ruby on RailsでのWebアプリケーション、APIの開発経験(2年以上) ・Java,Phthon,rubyでの開発経験(2年以上) ・プロジェクトの立ち上げの経験 ・ミドルウェア(Apache,Tomcat,MySQL)に関する構築・運用・チューニング経験 ・Linuxに関する構築・運用・チューニング経験 ・WebAPIの利用・構築に関する知識・経験 ・クラウド基盤を利用した自動化経験 ・Ansibleなどの構成管理ツールの利用経験 ・L2/L3/L4通信に関する基本的な知識 ・Webセキュリティに関する基本的な知識
ビッグデータ関連部署において、 共通基盤となるレコメンドAPIの開発案件になります。 インフラ基盤はAWSを利用しており、 主にこのAWSの環境構築、運用、チューニングをご担当頂きます。 レコメンドアルゴリズムの実装、各サービスへの展開、装着を 一部補助頂く可能性もございます。 Java,AWS
案件の必須スキル
・AWSを利用した環境の構築 ・インフラの運用/チューニング(トラフィック予測/制御及びDB) ・Unix系OS(Linuxでも可)の使用経験1年以上 ・Javaを用いた開発の経験
月間100万UUに達する老人ホーム、高齢者向けの 住宅検索サービスの運用開発をメインでご担当いただきます。 開発業務に関しては、オフショア先のベトナムでも担当している為 オフショアエンジニアとやり取りするケースも考えられます。 多少英語を使う可能性があります。 <想定される業務範囲> ・Mysql、Apache等、OS上で動く各種サーバーの整備/運用、ドキュメント化 ・クローラー、そしてその結果の解析・格納系処理等のメンテ、運用 ・フロント側にデータを渡す側として、そのデータ&インターフェース等の調整 ・個人情報を取り扱う関連の業務部分の支援機能の開発・分析 ・アカウント、電話システム設定等、部内業務のIT支援 <開発環境> 言語:PHP、Perl OS:Linux、AWS DB:MySQL FW:CakePHP2系 その他:Apache、Git PHP,Perl
案件の必須スキル
・Linux系システムの十分な経験(root権限で設定作業した事がある事) ・MySQL DBの十分な利用経験 ・何らかのスクリプト系の言語(Perl、PHP、Python、Ruby)の経験
Facabook、Twitter、ブログなどソーシャルメディアと連動した モニター情報サービスの運用開発やユーザー問い合わせに対する 技術調査などをご担当いただきます。 技術的に可能であれば、Hadoopを使った集計システムも 担当して頂きます。 <開発環境> 言語:Java OS:Linux(サーバー)※開発PCはWindows, Macから選択可 DB:MySQL FW:Play Framework1系 その他:Hadoop, Github, Backlog <チーム体制> ・プロデューサー:1名 ・運用担当者:1名 ・エンジニア:1名 Java
案件の必須スキル
・Javaでのサーバーサイド開発経験3年以上 ・Linuxサーバーでの作業経験 ・小規模チームでの開発経験
1 - 50件/全174件
Hadoopのフリーランス案件・求人について
■Hadoopとは Hadoopとは、大規模データの分散処理を行うためのオープンソースソフトウェアフレームワークで、膨大な量の非構造化データや半構造化データを高速に処理することができます。Hadoopは、分散ファイルシステムのHDFSと、並列処理フレームワークのMapReduceを中心に、各種ツールやライブラリで構成されています。 Hadoopの特徴として、コモディティハードウェア上に構築された分散クラスタ環境で動作すること、データの局所性を考慮した処理により高いスループットを実現していること、タスクの並列実行とフォールトトレランスによる高い処理効率と耐障害性を持つこと、スキーマオンリードによるデータの柔軟な取り扱いが可能なこと、Hiveなどの高水準言語によるデータ処理が行えること、HBaseによるリアルタイム性の高いデータアクセスが可能なこと、Mahoutなどの機械学習ライブラリが利用可能なことなどが挙げられます。 Hadoopができる開発は、ログ解析、Webクローリング、テキストマイニング、リコメンデーション、異常検知、予測分析、グラフ解析など、ビッグデータに関わる幅広い分野での活用が可能です。また、データレイク構築やETL処理の基盤としても利用されています。 Hadoopを活用している世界的サービスやプロダクトは、Yahoo!、Facebook、Twitter、LinkedIn、eBay、Spotify、Uber、Airbnb、Pinterest、Netflixなど、大規模なデータを扱うWebサービスやアプリケーションで広く採用されています。また、金融機関におけるリスク管理、小売業におけるマーケティング分析、通信事業者におけるネットワーク最適化、ヘルスケアにおける創薬支援など、様々な業種でHadoopを活用したビッグデータ活用が進んでいます。クラウドサービスとしてもAmazon EMR、Azure HDInsight、Google Cloud Dataprocなどが提供されており、オンプレミスだけでなくクラウド環境でのHadoopの利用も一般的になっています。ビッグデータ処理の標準的なプラットフォームとして広く普及しており、Hadoopエコシステムを構成する各種ツールやライブラリも活発に開発が行われています。 ■Hadoopを活用するメリット この章ではHadoopを活用するメリットについて説明します。 Hadoopを導入することにより、具体的に以下のようなメリットがあります。 ・HDFSによる分散ファイルシステムにより大規模データを効率的に格納できる ・MapReduceによる並列分散処理により大量データの一括処理が可能になる ・商用ディストリビューションの提供により導入・運用管理のハードルが下がる ・スキーマレスで非構造化データの格納にも対応可能 ・Hiveなどによるクエリ実行により既存のSQL知識の活用が可能 ・HBaseによるカラム指向のデータベースとしてリアルタイム性の高いデータアクセスが可能 ・OSSを中心とするエコシステムの豊富さにより拡張性に優れている Hadoopは大規模データ処理の基盤技術として広く普及しており、ビッグデータ活用の中核を担うプラットフォームとなっています。上記導入する上でのメリットを踏まえて、導入可否を検討することをおすすめします。 ■Hadoopを活用するデメリット この章ではHadoopを活用するデメリットについて説明します。 Hadoopを導入することにより、具体的に以下のようなデメリットがあります。 ・複雑なクラスタ構成の設計と運用に高度なスキルが必要とされる ・NameNodeへの負荷集中によりシステム全体のボトルネックになる恐れがある ・ディスクI/Oに依存するため他のメモリベースの処理基盤に比べ性能面で劣る ・MapReduceの記述にJavaの知識が必要でハードルが高い HadoopはメリットがHadoopはメリットが多いですが、運用管理の難しさや性能面の課題など注意すべき点がいくつかあることを理解しておきましょう。 Hadoop導入を今後検討している企業はHadoopを活用するメリットデメリットを比較した上で決めると後悔が少ないでしょう。