1 - 50件/全60件
大手生命保険ホールディングスの研究開発を行う部署にて、PoC開発とPL業務に携わっていただきます。 現在想定されるキーワードとしては、業界がヘルスケア、防災系、介護系、車載系、関連領域としてはAI、IoT、スマートスピーカー(Amazon Alexa)になります。 案件は複数ございますので、企画に対して柔軟に要件定義から設計、開発、テストと対応していただきます。 「保険業界」というワードを聞くとどうしても堅いイメージがありますが、作っていくサービスは他業界へ向けて様々な先端技術を絡めた開発になりますので、「アイディアをシステムで実現する」ことがゴールであれば使用技術やプロセスは問いません。 チームも柔軟な思考のメンバーが多く、トライ&エラーを楽しめる方にJoinいただきたい案件ですので、最新開発環境を推奨するWeb系企業をイメージいただければ問題ありません。 【開発スタイル】 アジャイルのSCRUM手法を取り入れています。 スプリントは2週間です。 チーム構成はデザイナーを含め5名前後で、4~5個ほど案件ごとに分かれています。 4年ほど前に内製化開発を促進する目的で生まれました。 【具体的な作業内容】 ・Webアプリ(SPA)のフロントの設計と開発(React.js、Vue.js) ・ネイティブスマホアプリの設計と開発 ・サーバーレス構成のマイクロサービスの設計と実装 ・開発物の結合テスト(テストケース作成、テスト実施) ・モック段階からの機能実装アイデア出し ・WebGLを用いたグラフィク開発やIoTデバイスを用いた開発 ・AI開発の場合は、AIモデル開発、アルゴリズム選定、アノテーション、チューニング、評価を実施 ・プロジェクト内のメンバー教育(コードレビューや設計レビュー) ・担当プロジェクトの開発タスク管理 Python,JavaScript
案件の必須スキル
・SPAのフロント開発経験(コンポーネント開発、状態管理、デバッグ) ・ネイティブスマホアプリの開発経験 ・(AIプロジェクトに参画したい場合は以下のスキルも) ・大学数学(微積・線形・統計)を履修している、理解できる ・Pythonがかける(NumPyが使える) ・チームを自主的にリードした経験
業務内容: IoTやAIなどを活用した企業様で、機械学習の開発を行っていただきます。 既存システムがあり、そのシステムにAIを搭載させる形です。 ベースのものは完成していますが、AIの精度を高めていくために増員がかかっております。 既存システムの中で、EVの事業部とカーシェアリングの事業部があり、 まずはEVの方から実装させていき、うまくいけばカーシェアリングの方も実装させていくイメージで開発を行っていきます。 場所:淡路町/小川町※基本リモート(初日、月1回出社あり) 面談回数:1回(弊社同席) 開発環境: 言語:Python 3.9/higher 基本ライブラリ:Numpy / SciPy / Pandas / Matplotlib 勤務時間:10:00-19:00 備考:弊社より参画実績のあるお客様です チーム平均年齢:30代半ば 外国籍:不可
案件の必須スキル
・Numpy/SciPy/Pandas/Matplotlibの業務使用経験 3年以上 ・scikit-learn/TensorFlow/Kerasなどのディープラーニング・ニューラルネットワークライブラリの業務使用経験 1年以上 ・AWS 関連 (特にRDSとS3) と連携する Python の開発経験 (現場ではboto3を使用) 1年以上
業務内容: eモビリティマネジメントプラットフォームにおける、AIシステム、エネマネシステム、カーシェアシステムの 各サービスの内容を適切に把握し、社内・社外をしっかり取りまとめつつ、要件定義から運用まで一連の流れを スムーズに遂行していただきます。 【具体的な業務】 ・社内開発するシステムの要件定義、基本設計、詳細設計、製作、単体試験、結合試験 ・外部委託するシステムの要件定義、基本設計以降のベンダーコントロール、受け入れ試験 ・保守運用(メンテナンス、障害調査など) 開発環境: 言語:Python 3.9、higher 基本ライブラリ:Numpy、SciPy、Pandas、Matplotlib 勤務場所:フルリモート ※月に一度の出社日と、任意の出社日がございます。 備考:50歳未満くらい迄を希望 外国籍:不可
案件の必須スキル
・Numpy、SciPy、Pandas、Matplotlib の業務使用経験 3年以上 ・scikit-learn、TensorFlow、Keras などのディープラーニング・ニューラルネットワークライブラリの業務使用経験 1年以上 ・AWS 関連 (特に RDS と S3) と連携する Python の開発経験 (boto3 を使用) 1年以上
ご参画後、最初は教育業界向けのAIシステムにおける、バックエンド及びMLOps部分の設計・実装を担っていただきます。 一定期間後には、その他AIシステムや様々なPJへのご参画も想定しております。 現場の開発メンバーは、現状全員がほぼフルスタックで対応可能となっており、全体的に高いスキルレベルの方が多いです。 内訳としては、マネージャーを除くとデータエンジニアが7名、アプリエンジニアが3名となっております。 Python
案件の必須スキル
・web技術を用いたシステム設計、実装の実務経験:3年以上 ・pythonを含む複数言語での開発経験:2年以上 ・クラウド関連のご経験:2年以上
業務内容: IoTやAIなどを活用した企業様で、機械学習の開発を行っていただきます。 既存システムがあり、そのシステムにAIを搭載させる形です。 ベースのものは完成していますが、AIの精度を高めていくために増員がかかっております。 既存システムの中で、EVの事業部とカーシェアリングの事業部があり、 まずはEVの方から実装させていき、うまくいけばカーシェアリングの方も実装させていくイメージで開発を行っていきます。 場所:淡路町/小川町※基本リモート(初日、月1回出社あり) 面談回数:1回(弊社同席) 開発環境: 言語:Python 3.9/higher 基本ライブラリ:Numpy / SciPy / Pandas / Matplotlib 勤務時間:10:00-19:00 備考:弊社より参画実績のあるお客様です チーム平均年齢:30代半ば 外国籍:不可
案件の必須スキル
・Numpy/SciPy/Pandas/Matplotlibの業務使用経験 3年以上 ・scikit-learn/TensorFlow/Kerasなどのディープラーニング・ニューラルネットワークライブラリの業務使用経験 1年以上 ・AWS 関連 (特にRDSとS3) と連携する Python の開発経験 (現場ではboto3を使用) 1年以上
案件概要:Webサービスの開発支援(Ruby×Python×Shell) 業務内容: 10万DAUのファンクラブサービスや、新規ウェブサービスの開発・運営を行っております。 少人数でのチーム開発となりますためコミュニケーションや勤怠良好な方を希望いたします。 ・コンテンツ監視システムの設計 / 開発 / 運用 ・バックエンドにあるAIモデルを制御できるシステムの開発 ・AIモデルの再学習・チューニングするシステムの開発 ・AIの結果の画像データ、入力されたデータのデータベース、クラウド上での管理 開発環境: 画像処理・data science系ライブラリ:matplotlib, numpy, albumations プロトタイピング環境: Jupyter labs/ Jupyter notebooks Neural Networks : Facebook AI research tools・tensorflow 社内独自の画像処理アルゴリズム(Python)(ドキュメンテーションあり) 開発言語: Python / Ruby / shell フレームワーク: Ruby on Rails データベース: PostgreSQL インフラ基盤: AWS 構成管理: Terraform 場所:恵比寿(リモート併用) ※週1出社(慣れた後はフルリモも相談可能) 外国籍:不可
案件の必須スキル
・Webサービスの開発・運用経験(最低5年以上、ハイスキル層を想定) ・【システム】Ruby on Railsの経験があること ・【AI コア】Pythonの経験があること ・【タスクハンドリング】shellでのjobs/queue/cronでプロセス管理の経験があること ・アダルト関係のサービスでも抵抗がない方 ・指示を待つ姿勢ではなく、仕様やプロダクトに関しての疑問や提案など エンジニアだけでなくビジネスやデザイナーなどともコミュニケーションを行い 自ら全体最適となるように考え行動できる姿勢であること
C#で作成されたWindowsネイティブアプリから、社内業務支援Webアプリケーションにシステムを刷新しました。 旧システムからの機能移行、新機能追加の推進を中心として、計画中、稼働中の各案件で主にWebアプリケーション開発をご担当いただきます。 Python、 Node.js、 PHP(Laravel)を用いたバックエンド領域とSQL、Numpy、Pandasを用いたデータ抽出やバッチ化を中心に、自ら手を動かしつつ内製開発チームを先導する役割を担っていただきます。 【計画中・稼働中の案件例】 1. 社内業務支援Webアプリケーションの開発 2. 業務向けバッチ処理システムのエンハンス開発、運用保守 3. 保険申込みシステムの改善 4. コーポレートサイト改善 実力や志向に応じて、上流工程から運用まで多くのフェーズをご担当いただけます。 社内SE業務の中でシステム利用者と関係性を構築することができるため スムーズなステップアップが可能な環境です。 より広範囲な業務にチャレンジいただくこともでき、幅広い知識やスキルを身に着けていただくことが可能です。 【上流工程へのステップアップ例】 ・システム化業務のフローや範囲のヒアリング ・適切な設計の検討 ・外部委託業者の選定と管理 ・スケジューリング 【広範囲な業務へのチャレンジ例】 ・IT戦略の立案や策定 ・新規案件の企画、提案 ・基幹システムの構築、機能追加 ・ネットワーク、サーバインフラの構築、保守 ・データ分析基盤の構築、運用保守 ・SBIグループ施策への参加 ・RPA、AI、BI、BlockChainなど新技術の導入 ・ヘルプデスク対応 Python
案件の必須スキル
・Pythonでの開発経験:3年以上
C#で作成されたWindowsネイティブアプリから社内業務支援Webアプリケーションにシステムを刷新しました。 旧システムからの機能移行、新機能追加の推進を中心として計画中、稼働中の各案件で主にWebアプリケーション開発をご担当いただきます。 Python、 NodeJS、 PHP(Laravel) を用いたバックエンド領域とSQL、Numpy/Pandas を用いたデータ抽出やバッチ化を中心に 自ら手を動かしつつ内製開発チームを先導する役割を担っていただきます。 <計画中、稼働中の案件例> 1. 社内業務支援Webアプリケーションの開発 2. 業務向けバッチ処理システムのエンハンス開発・運用保守 3. 保険申込みシステムの改善 4. コーポレートサイト改善 実力や志向に応じて、上流工程から運用まで多くのフェーズをご担当いただけます。 社内SE業務の中でシステム利用者と関係性を構築することができるため スムーズなステップアップが可能な環境です。 より広範囲な業務にチャレンジ頂くこともでき、幅広い知識やスキルを身に着けていただくことが可能です。 上流工程へのステップアップ例 ・システム化業務のフローや範囲のヒアリング ・適切な設計の検討 ・外部委託業者の選定と管理 ・スケジューリング 広範囲な業務へのチャレンジ例 ・IT戦略の立案や策定 ・新規案件の企画・提案 ・基幹システムの構築・機能追加 ・ネットワーク・サーバインフラの構築・保守 ・データ分析基盤の構築・運用保守 ・SBIグループ施策への参加 ・RPA/AI/BI/BlockChainなど新技術の導入 ・ヘルプデスク対応 Python
案件の必須スキル
・Pythonでの開発経験:3年以上
・MLシステムにかかる開発運用保守を一貫して行います。 1. C-DWH, 外部データベースからのETL処理 2. 機械学習の学習/推論に投入するためのPythonベースの前処理、その汎用化 3. 機械学習の推論を公開するためのAPI設計 4. 上記をフレーム化するためのMLOps機能探索のサポート、パブリッククラウド及びMLOps環境基盤の構築、ユーザー提供 Python
案件の必須スキル
・Git(GitLabを採用、コード保全で利用) ・Python(3年以上) ・タスク管理(Jira,Backlog:Jira/GitLabのissuesでのタスク管理) ・Linux(ls,cat,mv,touch,chmodなど単純なコマンドの意味が理解可能) ・AWS ・標準SQL ・Oracleに関する知識 ・データ処理ライブラリ ・ML/行列ライブラリ(Statsmodel, scikit-learn, OpenCV, Numpyの使用経験) ・DLライブラリ(PyTorchの使用経験)
広告効果分析ツールの機能開発のソフトウェアエンジニアとして担当していただきます。 PMと共にプロダクト開発をリードしていただく可能性もあり、 サーバーサイド/フロントエンド/インフラなど幅広く携わっていただきます。
案件の必須スキル
Pythonでの開発経験3年以上 要件定義の経験 小規模チームのPL経験
■概要 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 サービスSaasの新バージョンをこの春リリースし、 エンタープライズとのが急激に増えている中で、 非常に多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる 大量データの加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、 開発メンバー全員でスプリントを消化していく体制になります。 ■開発環境 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・検索エンジン:AmazonElasticsearchService ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AmazonWebServices ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry ■精算幅:140~180h(上下割) ■場所:フルリモート/渋谷 ■商談:1回 ■就業時間9:00~18:00
案件の必須スキル
・何かしらのシステム開発経験3年以上 ・Pythonの実装経験1年以上 ・Sparkなどの分散処理システムの経験 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験 ・アプリケーションの設計経験 ・AWSなどクラウド環境を利用したシステム開発の経験
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる 大量データの加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【面談】1回 【勤務地】リモート 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験3年以上ある方 ・Python開発経験1年以上ある方 ・Sparkなどの分散処理システムの経験がある方 ・SQLの実装経験 (基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
■案件の内容 機械学習エンジニアとして衛星データの 機械学習による解析に関わる幅広い業務をお任せします。 現在、当システムを導入いただいている自治体が増加していることから、 それぞれの自治体へ対応すべく基盤を整え、自動化などを進めております。 新規プロダクトや既存のプロダクトの進化に合わせて 新たなテーマにも取り組んでいただくことも期待します。 現在も、「衛星データ×AI×農業」を軸に、官公庁、都道府県や市町村、 地方自治体大手企業から協業も含めた ご相談をいただくことも多く、様々なテーマに対応いただきます。 【具体的には】 現在、下記プロジェクトが進行しており、一緒に取り組んでいただきたいと考えております。 ・現在人手で作成されている農地の区画情報(ポリゴン)を予測モデルを用いて予測し、 農地ポリゴンの作成効率の向上を図る ・当システムにて利用している耕作放棄地率予測モデルの精度向上 ・当システムにて利用している作物種類判定モデルの精度向上 ・気象データ(日射量、降水量など)活用方法の提案 【開発環境】 ・言語:Python ・ライブラリ・フレームワーク:PyTorch / pandas / numpy / scikit-learn etc… ・DB:PostgreSQL ( PostGIS ) ・インフラ:AWS / GCP ・バージョン管理:Git ・リポジトリ管理:GitHub ・GISツール : QGIS ・コミュニケーションツール : Slack / Zoom / Discord 【プロダクトについて】 ①農地利用状況調査システム 現在既に30以上の自治体に展開され、さらなる拡販と 顧客の声をもとにしたプロダクトの進化に取り組んでおります。 競合サービスがなく、既に利用いただいているお客様からも 高い評価をいただいている実績もあることからも、 ご案内した自治体様からはご興味を持っていただきやすく、 今後もお取引先の拡大を見込んでおります。 「農地利用状況調査」は「農地法」で自治体に対し、 農地が適正に利用されているか、毎年の調査が義務付けられています。 農地の少ない自治体も含め、すべての自治体が行っており、 自治体ごとに紙の地図を作成し、目視でパトロールと地図への記入。 さらにその結果をもとに市町村の台帳と国の台帳へシステム入力を行っております。 「作業の手間」に時間がとられている現状と、「目視」のため基準のばらつきが大きいという課題を システムの利用で解決し、自治体が農地の活性化に向けて 新たな施策を生み出すことができる状態へサポートしています。 ②作付け調査アプリケーション ①は耕作放棄地を衛星画像から推定・検知するサービスですが、 ②は、その区画で作付けされている作物を推定することができます。 地方自治体は農家の方に対し作付けしている作物に応じた補助金があることや、 統計データを作成していることもあり、自治体内の農地が申請通りに使われているか 調査をする義務を担っています。 当システムでは、衛星データで広範囲を確認し、目視での調査は必要な場所のみに絞ることができ、 紙の地図や台帳を使わず、Web上で記録できるため、 時間と労力を大幅に削減することが可能となります。 ③営農向けアプリケーション 衛星データで解析した農地の土壌状態を可視化し、農家の肥料の削減と 地球温暖化対策につながるアプリケーションです。農林水産省の支援を得て取り組んでおります。 農業で肥料を使う際、どこに、どれだけ、どの肥料をまけばいいか、ということは 感覚値でしかわからず、余分な肥料を利用しており、余分な肥料を使っていることでコストも上がり、 地球温暖化の原因の一つにもなっています。 一方、土壌の検査をするには、土壌を採取して検査機関に送るなど、手間も大きい作業です。 では衛星データを解析し、画像から土壌の状態や成分などを分析可能に。 農家さんが衛星データ解析を気軽に利用し、区画ごとに土壌の状態を把握し、 最適な肥料の選択や量の調整がすぐにわかるアプリケーションを開発。 データの連携や提供機能を持つ「農業データ連携基盤」WAGRIとも現在共同開発を進めております。 ■開発環境 【開発環境】 ・言語:Python ・ライブラリ・フレームワーク:PyTorch / pandas / numpy / scikit-learn etc… ・DB:PostgreSQL ( PostGIS ) ・インフラ:AWS / GCP ・バージョン管理:Git ・リポジトリ管理:GitHub ・GISツール : QGIS ・コミュニケーションツール : Slack / Zoom / Discord ■稼働形態:フルリモート(新宿三丁目) ■精算方法:140 ~ 180時間 (上下割) ■商談:1回 ■PC貸与:なし ■服装規定:なし
案件の必須スキル
・データ解析のご経験を目安として2年程度お持ちである方
【内容】 衛星データの機械学習による解析に関わる幅広い業務をお任せします。 現在、衛生データを利用し、農業や地方自治体における 公務のDX化を推進するプロダクトをいくつか展開しております。 データの分析から予測データの精度向上・活用方法の 提案までスキルに応じて幅広くお手伝い頂ける方大歓迎です。 【開発環境】 ・言語:Python ・ライブラリ・フレームワーク:PyTorch/pandas/numpy/scikit-learnetc… ・DB:PostgreSQL(PostGIS) ・インフラ:AWS/GCP ・バージョン管理:Git ・リポジトリ管理:GitHub ・GISツール:QGIS ・コミュニケーションツール:Slack/Zoom/Discord 【勤務地】フルリモート 【時間】9:00~18:00 【精算幅】140~180h 【面談】1回
案件の必須スキル
・Pythonを用いたデータ分析の経験2年以上
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの 加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【面談】1回 【勤務地】リモート可 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験5年以上ある方 ・Python開発経験2年以上ある方 ・Sparkなどの分散処理システムの経験2年以上ある方 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
■概要 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 サービスSaasの新バージョンをこの春リリースし、 エンタープライズとのが急激に増えている中で、 非常に多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、 開発メンバー全員でスプリントを消化していく体制になります。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・検索エンジン:AmazonElasticsearchService ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AmazonWebServices ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry ■精算幅:140~180h(上下割) ■場所:フルリモート ■商談:1回 ■就業時間9:00~18:00
案件の必須スキル
・何かしらのシステム開発経験3年以上 ・Pythonの実装経験1年以上 ・Sparkなどの分散処理システムの経験 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験 ・アプリケーションの設計経験 ・AWSなどクラウド環境を利用したシステム開発の経験
■概要 自動車の性能分析をご担当いただきます。 ・車両企画担当部署における電気自動車の車両全体性能に関する分析依頼 ・電気自動車の各種センサー・ソフトウェアから収集された走行データを用いて、 各機種ごとのドライバーの運転行動を分析し、現状を把握する。 【開発環境】 ・PC:Windows(クライアント支給) ・データベース:AmazonRedshift ・クラウドストレージ:AmazonS3 ・使用言語:SQL、Python ・クエリ実行環境:SQLworkbench ・Python実行環境:JupyterNotebook ・コミュニケーションツール:Slack(グラフ社内)、Teams(クライアント) ■作業内容 ・分析設計 ・SQLを用いたDBからのデータの抽出・加工 ・Pythonを用いた集計・分析・可視化作業 ・Powerpointでの分析レポート作成作業 ・クライアントミーティングへの参加・分析レポートの説明 ・Teams上でのクライアントとのコミュニケーション ・社内ミーティングへの参加 ■場所:リモート可 ■面談:1回 ■精算:あり(140-180h予定)
案件の必須スキル
・Python(pandas,numpy,matplotlib,その他のライブラリ)を用いたデータの集計・分析・可視化経験(pandas,numpy) ・SQLを用いたデータの抽出・集計・加工経験
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの 加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【面談】1回 【勤務地】リモート可 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験5年以上ある方 ・Python開発経験2年以上ある方 ・Sparkなどの分散処理システムの経験2年以上ある方 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
■概要 以下業務をご担当いただきます。 ・車両企画担当部署における電気自動車の車両全体性能に関する分析依頼 ・電気自動車の各種センサー・ソフトウェアから収集された走行データを用いて、 各機種ごとのドライバーの運転行動を分析し、現状を把握する。 【開発環境】 ・PC:Windows(クライアント支給) ・データベース:AmazonRedshift ・クラウドストレージ:AmazonS3 ・使用言語:SQL、Python ・クエリ実行環境:SQLworkbench ・Python実行環境:JupyterNotebook ・コミュニケーションツール:Slack(グラフ社内)、Teams(クライアント) ■作業内容 ・分析設計 ・SQLを用いたDBからのデータの抽出・加工 ・Pythonを用いた集計・分析・可視化作業 ・Powerpointでの分析レポート作成作業 ・クライアントミーティングへの参加・分析レポートの説明 ・Teams上でのクライアントとのコミュニケーション ・社内ミーティングへの参加 ■場所:リモート可 ■面談:1回 ■精算:あり(140-180h予定)
案件の必須スキル
・Python(pandas,numpy,matplotlib,その他のライブラリ)を用いたデータの集計・分析・可視化経験(pandas,numpy) ・SQLを用いたデータの抽出・集計・加工経験
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる 大量データの加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【面談】1回 【勤務地】リモート可 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験5年以上ある方 ・Python開発経験2年以上ある方 ・Sparkなどの分散処理システムの経験2年以上ある方 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる 大量データの加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【面談】1回 【勤務地】リモート 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験3年以上ある方 ・Python開発経験1年以上ある方 ・Sparkなどの分散処理システムの経験がある方 ・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの 加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【勤務地】リモート 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験3年以上ある方 ・Python開発経験1年以上ある方 ・Sparkなどの分散処理システムの経験がある方 ・SQLの実装経験 (基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
【内容】 Saasプロダクトデータ基盤構築(PythonSQL)です。 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを 用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 【環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【場所】リモート 【就業】9:00-18:00 【精算】140-180h 【面談】1回
案件の必須スキル
・Webシステム設計~開発経験3年以上ある方 ・Python開発経験1年以上ある方 ・Sparkなどの分散処理システムの経験がある方 ・SQLの実装経験 (基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを 理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる 大量データの加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【面談】1回 【勤務地】リモート 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験3年以上ある方 ・Python開発経験1年以上ある方 ・Sparkなどの分散処理システムの経験がある方 ・SQLの実装経験 (基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの 加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【面談】1回 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験3年以上ある方 ・Python開発経験1年以上ある方 ・Sparkなどの分散処理システムの経験がある方 ・SQLの実装経験 (基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
【業務内容】 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる 大量データの加工をSQLやPythonを用いて作成し、集計後、 データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry 【精算幅】140-180h 【勤務地】リモート可 【備考】 ・服装:自由 ・就業時間:9:00-18:00
案件の必須スキル
・Webシステム設計~開発経験3年以上ある方 ・Python開発経験1年以上ある方 ・Sparkなどの分散処理システムの経験がある方 ・SQLの実装経験 (基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・データ基盤の構築経験ある方 ・AWSを用いた開発経験ある方 ・Dockerなどのコンテナ技術を利用した開発経験がある方
■業務内容: データサイエンティストが様々な領域に対して作成した、 プライシングモデル等の技術を実際のサービスへ活⽤していくための データサービス基盤の開発および運⽤を⾏っていただきます。
案件の必須スキル
・Java もしくはPython でのWeb サービスのサーバサイド開発運⽤経験 ・AWS やGCP などのクラウド利⽤経験 ・API 設計、開発経験 ・Python ( numpy, pandas, scikitlearn ) を使ったデータ分析、システム構築経験 ・機械学習/統計学についての基礎的な知識
IoTやAIなどを活用した企業様で、機械学習の開発を行っていただきます。 既存システムがあり、そのシステムにAIを搭載させる形です。 ベースのものは完成していますが、AIの精度を高めていくために増員がかかっております。 既存システムの中で、EVの事業部とカーシェアリングの事業部があり、 まずはEVの方から実装させていき、うまくいけばカーシェアリングの方も実装させていくイメージで開発を行っていきます。 開発環境: 言語:Python 3.9/higher 基本ライブラリ:Numpy / SciPy / Pandas / Matplotlib
案件の必須スキル
・Numpy/SciPy/Pandas/Matplotlibの業務使用経験 3年以上 ・scikit-learn/TensorFlow/Kerasなどのディープラーニング・ニューラルネットワークライブラリの業務使用経験 1年以上 ・AWS 関連 (特にRDSとS3) と連携する Python の開発経験 (現場ではboto3を使用) 1年以上
■業務概要 ・社内開発するシステムの要件定義/基本設計、詳細設計、製作、単体試験、結合試験 ・外部委託するシステムの要件定義、基本設計以降のベンダーコントロール、受け入れ試験 ・保守運用(メンテナンス、障害調査など) ■担当工程:要件定義,基本設計,詳細設計,実装,テスト,運用・保守 ■開発手法:ハイブリッド ■企業情報 弊社は、IoTやAIなどを活用し「カーシェア」と「エネルギーマネジメント」を組み合わせた、全く新しいサービスを開発・提供するスタートアップです。 ■開発チーム構成 開発組織全体で13名 プロダクトオーナー:1名 PM統括:1名 エネルギーマネジメントシステム:PM1名、SE1名、PG3名、インフラ1名 カーシェアシステム:PM1名(+パートナー企業) SGW、車載器:PM1名、IoTデバイス開発PM1名(+パートナー企業) 運用監視補助1名 インフラ:1名 ■チームの役割 eモビリティをマネジメントするプラットフォームにおける、AIシステム、エネマネシステム、カーシェアシステムの各サービスの内容を適切に把握し、社内・社外をしっかり取りまとめつつ要件定義から運用まで一連の流れをスムーズに遂行していただきます。 ❐ AIシステム: カーシェアリング利用とバッテリーの効率利用の両立を可能にします。 ビッグデータを活用した充放電制御のための各種パラメータの予測にはAIによる最適化を行う予定。 ❐ カーシェアリングシステム: 顧客向けサービスの提供(カーシェアアプリ含む)、車両の管理が可能。 ❐ エネルギーマネジメントシステム: AIを活用した、充電器の管理、再生可能エネルギーのコントロール、効率利用が可能。 ■募集背景 既存システム開発の機能拡張や改修のための増員 ■開発環境 言語:Python 3.9/higher 基本ライブラリ:Numpy / SciPy / Pandas / Matplotlib
案件の必須スキル
・Numpy / SciPy / Pandas / Matplotlib の業務使用経験 3年以上 ・scikit-learn / TensorFlow / Keras などのディープラーニング・ニューラルネットワークライブラリの業務使用経験 1年以上 ・AWS 関連 (特に RDS と S3) と連携する Python の開発経験 (当社では boto3 を使用) 1年以上
・社内開発するシステムの要件定義/基本設計、詳細設計、製作、単体試験、結合試験 ・外部委託するシステムの要件定義、基本設計以降のベンダーコントロール、受け入れ試験 ・保守運用(メンテナンス、障害調査など)
案件の必須スキル
・Numpy / SciPy / Pandas / Matplotlib の業務使用経験 3年以上 ・scikit-learn / TensorFlow / Keras などのディープラーニング ・ニューラルネットワークライブラリの業務使用経験 1年以上 ・AWS 関連 (特に RDS と S3) と連携する Python の開発経験 (当社では boto3 を使用) 1年以上
【概要】 自動車データからドライバーの運転行動を分析、現状の使われ方を把握して可視化を行う。 【業務内容】 ・分析設計 ・SQLを用いたDBからのデータの抽出・加工・集計・クエリの最適化 ・Pythonを用いた集計・分析・可視化作業 ・Powerpointでの分析レポート作成作業 ・クライアントミーティングへの参加・分析レポートの説明 ・Teams上でのクライアントとのコミュニケーション ・社内ミーティングへの参加
案件の必須スキル
・Python(pandas, numpy, matplotlib, その他のライブラリ)を用いたデータの 集計・分析・可視化経験(pandas, numpy) ・SQLを用いたデータの抽出・集計・加工経験
・Pythonを用いたデータ分析基盤の作成、テスト ・データの提供プラットフォームへのパイプライン構築 ・GCP上での機能追加・改善 ・本番環境上での安定運用と障害対応
案件の必須スキル
・python 3.x(numpy, pandasなどの集計ライブラリ) ・SQL ・Docker、terraform、Kubernetesなどを利用した開発経験 ・DNS, load balancer, firewall(security group), routing table, networkの知識 ・分散処理に関する理解
【業務内容】 EdTech企業にてデータアナリスト(データサイエンティスト)として、データによる 新しい価値創造をゴールとするデータ分析やモデル開発を担っていただきます。 以下、チームで取り組んでいる分析テーマの具体例です。 ▼受講者の学習意欲の活性化・学習効果の向上 学習行動ログ及びアンケート調査を用いた活性要因分析 統計的因果推論による施策効果検証 定型レポートのワークフロー開発/ダッシュボード構築 ▼受講者集客 非会員向けサイトの会員登録フローのファネル分析 ▼法人顧客リピート契約促進 管理画面操作ログや受講者学習行動ログを用いたリピート契約要因分析 定型レポートのワークフロー開発/ダッシュボード構築 ▼法人顧客集客 法人顧客向けセミナーの統計的因果推論による効果検証 ▼マーケティングリサーチ ビジネスパーソンや育成人事が感じるビジネススキル/デジタルスキルの課題に関する調査/分析 ▼送客 他の(同クライアント)学習サービスへの利用促進を目的とした、志望動機の自由記述データの自然言語処理 【開発環境】 インフラ:GCP (データ基盤) / AWS (関連システム) データパイプライン (ETL):CloudComposer (Airflow) DWH:BigQuery その他インフラ管理:Docker、GKE / GAE / CloudRun 可視化ツール:Google Data Portal / Tableau 分析環境:Jupyter Notebook / Google Colab / Google Cloud ML 監視:Cloud Logging / Stackdriver Logging その他:Git / GitHub / Slack / Notion
案件の必須スキル
[データサイエンス] 統計検定2級レベルの知識 機械学習・統計モデルの構築、およびモデルに基づく分析の経験 デジタルプロダクトのデータ分析経験 アンケート調査設計と調査結果分析への興味関心 [ビジネス] 論理的思考力(定量思考力/要約力/仮説構築能力など) ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保できる) ビジネスサイドと円滑なコミュニケーションを図りながら分析を進めることができる [エンジニアリング] SQLを利用してデータを加工・集計した経験 ・100~200行のコードを読み書きできる ・結合, CTE (WITH句)・サブクエリ, ウィンドウ関数が利用できる Python・Rなどによる集計やモデル構築・可視化の経験 ・numpy, pandas などの集計用ライブラリの利用経験 ・scikit-learn,statsmodels などの機械学習ライブラリの利用経験 ・matplotlib, seaborn などの可視化ライブラリの利用経験
【業種】 大手自動車メーカー【案件概要】 ・車両企画担当部署における電気自動車の車両全体性能に関する分析依頼 ・電気自動車の各種センサー・ソフトウェアから収集された走行データを用いて、各機種ごとのドライバーの運転行動を分析し、現状を把握する。【職種】 データサイエンティスト/アナリスト【対応内容】 ・分析設計 ・SQLを用いたDBからのデータの抽出・加工 ・Pythonを用いた集計・分析・可視化作業 ・Powerpointでの分析レポート作成作業 ・クライアントミーティングへの参加・分析レポートの説明 ・Teams上でのクライアントとのコミュニケーション ・社内ミーティングへの参加 【開発環境】 ・PC:Windows (クライアント支給) ・データベース:Amazon Redshift ・クラウドストレージ:Amazon S3 ・使用言語:SQL、Python ・クエリ実行環境:SQL workbench ・Python実行環境:JupyterNotebook ・コミュニケーションツール:Slack(グラフ社内)、Teams(クライアント)
案件の必須スキル
・Python(pandas, numpy, matplotlib, その他のライブラリ)を用いたデータの集計・分析・可視化経験(pandas, numpy) ・SQLを用いたデータの抽出・集計・加工経験
・機械学習/深層学習の研究/アルゴリズム実装 ・大手企業と連携した研究/ソリューション開発、自社プロダクトの開発
案件の必須スキル
・Scipy/Numpy, Scikit-Learn, Pandas, Tensorflow, Keras, Chainer, PyTorchなどのフレームワークを利用した機械学習における実装経験 ・機械学習の理論的背景を理解 ・機械学習のモデルの理解(線形回帰, アンサンブル学習, 勾配ブースティング, RNN, CNN, GCN, GAN, YOLOなど) ・論文のモデルを実装する能力 ・複数のセンサやデバイスを用いたシステムの構築・運用経験 ・機械学習を用いたロボット制御システムのインテグレート経験 ・高いコミュニケーションスキル(ビジネスレベルの日本語) ※全てを満たしている必要はございません。
=短期的= ユーザーの行動/心理に関する仮説検証/仮説探索A/Bテストによる施策の効果検証統計的因果推論による施策の効果検証自由記述データの自然言語処理上記に関する開発/マーケティング側とのコミュニケーション =長期的=定型レポートのワークフロー開発/ダッシュボード構築コンテンツやオンラインイベントのレコメンド検索エンジンのアルゴリズム改良コンテンツの画像情報/音声情報を用いた機械学習
案件の必須スキル
◆データサイエンス – 統計検定2級レベルの知識 – 機械学習・統計モデルの構築、およびモデルに基づく分析の経験 – マーケティング又は教育領域のデータ分析経験 ◆ ビジネス – 論理的思考力(定量思考力/要約力/仮説構築能力など) – ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来る) – 開発/マーケティング側とコミュニケーションしながら分析を推進できる ◆ エンジニアリング – SQLを利用してデータを加工・集計した経験 ・100~200行のコードを読み書きできること ・結合, CTE (WITH句)・サブクエリ, ウィンドウ関数が利用できること – Pythonによる集計やモデル構築・可視化の経験 ・ numpy, pandas などの集計用ライブラリの利用経験 ・ scikit-learn などの機械学習ライブラリの利用経験 ・ matplotlib, seaborn などの可視化ライブラリの利用経験 – Git・GitHubの利用経験
【業務概要】新プロダクトの機械学習エンジニアとして、プロダクト立ち上げを担当して頂きます。 現在MVPの開発段階のため、ご参画頂くタイミングでは本番リリースに向けたβ版開発や機能拡充、ブラッシュアップ、本格ローンチとプロダクトの成長をエンジニアという立場から担って頂きます。 【具体的な業務】新プロダクト開発において、以下のような業務に従事していただきます。 機械学習アルゴリズム選定、モデルチューニングのためのEDA 機械学習アルゴリズムの設計・実装 モデルで利用するデータ・特徴量生成のためのパイプライン開発 機械学習タスクとしては時系列予測、他クラス分類が当面のターゲットになります。プロダクトの成長に伴って自然言語処理も取り組んでいく予定です。 また、自動発注の最適化のために数理最適化技術も用いており、経験者の方には数理最適化モデルの実装も担っていただきたいと考えています。 ◇利用技術・Python ・TypeScript ・AWS サービス ・Glue ・Athena ・Fargate ・SageMaker ・Lamdba ・CDK ・機械学習/データサイエンス/数理最適化ライブラリ ・Pandas ・NumPy ・Scikit-Learn ・LightGBM ・Prophet ・PuLP
案件の必須スキル
・機械学習を用いたシステム開発・運用経験 ・モデルチューニングのためのEDAの経験 ・パブリッククラウドサービス上での開発経験 [求める人物像] ・個の力ではなく、チームの力を最大化させることにモチベーションを感じる方 ・あるべき論だけではなく、現状を踏まえた上で清濁併せのんでプロジェクト推進ができる方。 ・実際に手を動かし実行してくれる方 ・新しい技術などに好奇心をもち積極的に挑戦してくれる方
音楽関連のマーケティング分析-基本的にはエンドからの要望にアドホック分析対応。-分析が中心となるため、機械学習自体の知識はあった方が良いですが必須ではない・かなり大きなデータを分析するため、田町で週に2-3日程度(音楽配信ログや人流データなど)・一部データについては、リモートでの分析対応。
案件の必須スキル
・データ前処理を自分で考えて実装することができる ・Pandas/Numpy等を利用した分析ができる(JupyterNotebook/Lab環境等) ・ある程度大きなデータを扱うことができる(数千万-数億レコードレベル
自社事業成長支援を目的としたKPI設計、データ可視化、ビジネスデータ分析を担うポジションです。依頼業務は以下短期的長期的とスコープがあります。[ 短期的 ]・ ユーザーの行動/心理に関する仮説検証/仮説探索・ A/Bテストによる施策の効果検証・ 統計的因果推論による施策の効果検証・ 上記に関する開発/マーケティング側とのコミュニケーション[ 長期的 ]・ 定型レポートのワークフロー開発/ダッシュボード構築・ コンテンツやオンラインイベントのレコメンド・ 検索エンジンのアルゴリズム改良・ コンテンツの画像情報/音声情報を用いた機械学習
案件の必須スキル
[ データサイエンス ] ・ 統計検定2級レベルの知識 ・ 機械学習・統計モデルの構築、およびモデルに基づく分析の経験 ・ マーケティング又は教育領域のデータ分析経験 [ ビジネス ] ・ 論理的思考力(定量思考力/要約力/仮説構築能力など) ・ ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来る) ・ 開発/マーケティング側とコミュニケーションしながら分析を推進できる [ エンジニアリング ] ・ SQLを利用してデータを加工・集計した経験 ・ 100~200行のコードを読み書きできること ・ 結合, CTE (WITH句)・サブクエリ, ウィンドウ関数が利用できること ・ Pythonによる集計やモデル構築・可視化の経験 ・ numpy, pandas などの集計用ライブラリの利用経験 ・ scikit-learn などの機械学習ライブラリの利用経験 ・ matplotlib, seaborn などの可視化ライブラリの利用経験 ・ Git・GitHubの利用経験
[ポジション]:AIエンジニア ・機械学習/深層学習の研究/アルゴリズム実装 ・大手企業と連携した研究/ソリューション開発、自社プロダクトの開発
案件の必須スキル
・Scipy/Numpy, Scikit-Learn, Pandas, Tensorflow, Keras, Chainer, PyTorchなどのフレームワークを利用した機械学習における実装経験 ・機械学習の理論的背景を理解 ・機械学習のモデルの理解(線形回帰, アンサンブル学習, 勾配ブースティング, RNN, CNN, GCN, GAN, YOLOなど) ・論文のモデルを実装する能力 ・複数のセンサやデバイスを用いたシステムの構築・運用経験 ・機械学習を用いたロボット制御システムのインテグレート経験 ・高いコミュニケーションスキル(ビジネスレベルの日本語)
[ポジション]:AIエンジニア 弊社クライアントの機械学習エンジニアチーム、ビジネスチームと共に、大手企業、研究機関、自治体とのプロジェクトに参画頂き、学習モデルの開発に従事頂きます。 基本的なチーム体制は弊社機械学習エンジニア、コンサルタントメンバーとチームで進行します。
案件の必須スキル
・ビジネスレベルの日本語 ・論文のモデルを実装する能力 ・Scipy/Numpy, Scikit-Learn, Pandas, Tensorflow, Keras, Chainer, PyTorchなどのフレームワークを利用した機械学習におけるプロジェクトにおける実装経験
・データの分析と可視化(グラフ化)・分析可視化に伴うデータ前処理・データのマスタファイル・対応表の作成・分析結果等の資料化
案件の必須スキル
・分析可視化に伴うデータ前処理(結合加工処理など) Pythonに習熟しておりデータ分析用のライブラリ(pandasなど)が扱えること ・機械学習のデータ前処理を自分で考えて実装することができる ・Pandas/Numpy等を利用した分析ができる(JupyterNotebook/Lab環境等)
データ分析では、データ・プレパレーション領域と性能テストを主に行っていただく予定です。並行して行っている案件で、パブリッククラウドのPaaSを使用した設計・開発を行っており、こちらは、GCP案件とAzure案件になります。データ分析案件で1.0で働いていただくか、データ分析案件0.5、GCP案件 or Azure案件で0.5という形で働いていただくか、相談し案件に参画いただきます。(GCP案件 と Azure案件だけで1.0にはなりません。)
案件の必須スキル
Python
同社は生体認証、体型認証、行動認証などを自社サービスとして展開している企業です。 今回はPythonを用いた顔認証による本人確認サービスの開発に携わって頂きます。 金融機関を中心とした顧客企業に対して、実装する機械学習アルゴリズムの開発を行います。 【具体的な業務内容】 ・機械学習を伴うAPIの実装 ・機械学習のサーバーサイド推論APIの実装 ・機械学習コードの実装・高速化・パイプライン構築 【技術環境】 ・言語:Python ・CI/CD:CircleCI、GitHub Actions、AWS CodePipeline/CodeBuild/CodeDeploy ・インフラ:AWS、Terraform、Docker ・ストレージ:Amazon Aurora (MySQL)、Amazon DynamoDB、S3 ・モニタリング:Airbrake、AWS CloudWatch、Datadog ・AWS:API Gateway、CloudFront、CloudTrail、Direct Connect、ECS、ECR、Fargate、EC2、GuardDuty、KMS、Kinesis Firehose、Lambda、Route 53、SNS、SQS、Transfer for SFTP、WAF ・その他ツール:Github、Slack、JIRA、Confluence、Zeplin、Miro
案件の必須スキル
【必須】 ・Pythonでの開発経験 ・AWSを用いた開発/運用経験 ・チームでの開発経験 ・CI/CD環境の構築経験 ・何らかの機械学習を試してみたことがある(個人でも可) 【尚良】 ・NumPy、pandas、sklearn、matplotlib、OpenCV 等一通りの画像処理・機械学習に関連する開発経験 ・Pytorch 他深層学習ライブラリを用いた開発経験 ・Pytorch lightning の開発経験 ・AWS Sagemaker の経験 ・DevOps 周りの経験 (AWS CodePipeline/AWS StepFunctions/Terraform) ・エンジニアとしての経験3年以上 【求める人物像】 ・弊社のビジョンへ共感がある方 ・個人情報保護・情報セキュリティに関する意識があり、責任感を持って行動できる方 ・丁寧に建設的に議論ができる方 ・素直で技術が好きな方
同社はオンラインによる生体認証、体型認証、行動認証のプラットフォームを展開している企業です。 今回は本人確認/生体認証プラットフォーム (eKYC) の開発を機械学習を用いてご担当頂きます。 プロダクトは顔や免許証などのIDを撮影して本人確認を行っています。 その際には、 ・顔認証 ・偽造検知(PAD) ・顔/IDの認識、クオリティアセスメント などの画像処理技術が使われています。 これらの技術は、サービスの利便性や本人確認の信頼度に直結しており、様々な国籍や環境の人でも快適に使えるように、日々改善を続けています。 本ポジションでは、リサーチャーと協力し、これらの技術の新規開発や精度向上をするための実装や仕組みづくりをして頂きます。 具体的な業務としては、下記のどちらかを、専門性に応じて担当していただきます。 【具体的な業務内容】 ・機械学習を用いたAPI、インフラ実装や、データ分析、アノテーションツールの考案・実装 ・機械学習を用いたWebアプリやNativeアプリのフロント実装、新規UIの検証 ※エンド直案件となります。面談は弊社同席で1回行います。
案件の必須スキル
・Pythonでの開発経験(個人でも可) ・AWSを用いた開発/運用経験 ・チームでの開発経験 ・CI/CD環境の構築経験 ・何らかの機械学習を試してみたことがある(個人でも可)
同社は生体認証、体型認証、行動認証などを自社サービスとして展開している企業です。 今回はPythonを用いた顔認証による本人確認サービスの開発に携わって頂きます。 金融機関を中心とした顧客企業に対して、実装する機械学習アルゴリズムの開発を行います。 【具体的な業務内容】 ・機械学習を伴うAPIの実装 ・機械学習のサーバーサイド推論APIの実装 ・機械学習コードの実装・高速化・パイプライン構築 【技術環境】 ・言語:Python ・CI/CD:CircleCI、GitHub Actions、AWS CodePipeline/CodeBuild/CodeDeploy ・インフラ:AWS、Terraform、Docker ・ストレージ:Amazon Aurora (MySQL)、Amazon DynamoDB、S3 ・モニタリング:Airbrake、AWS CloudWatch、Datadog ・AWS:API Gateway、CloudFront、CloudTrail、Direct Connect、ECS、ECR、Fargate、EC2、GuardDuty、KMS、Kinesis Firehose、Lambda、Route 53、SNS、SQS、Transfer for SFTP、WAF ・その他ツール:Github、Slack、JIRA、Confluence、Zeplin、Miro
案件の必須スキル
【必須】 ・Pythonでの開発経験 ・AWSを用いた開発/運用経験 ・チームでの開発経験 ・CI/CD環境の構築経験 ・何らかの機械学習を試してみたことがある(個人でも可) 【尚良】 ・NumPy、pandas、sklearn、matplotlib、OpenCV 等一通りの画像処理・機械学習に関連する開発経験 ・Pytorch 他深層学習ライブラリを用いた開発経験 ・Pytorch lightning の開発経験 ・AWS Sagemaker の経験 ・DevOps 周りの経験 (AWS CodePipeline/AWS StepFunctions/Terraform) ・エンジニアとしての経験3年以上 【求める人物像】 ・弊社のビジョンへ共感がある方 ・個人情報保護・情報セキュリティに関する意識があり、責任感を持って行動できる方 ・丁寧に建設的に議論ができる方 ・素直で技術が好きな方
1 - 50件/全60件
この条件の新着案件情報を受け取る
この条件の新着案件情報を受け取る
NumPyのフリーランス案件・求人について
■NumPyとは NumPyは、Numerical Pythonの略称で、Pythonでの数値計算を高速かつ効率的に行うためのライブラリです。 NumPyの特徴として、強力なN次元配列オブジェクトを提供していること、ブロードキャストによる配列演算ができること、線形代数、フーリエ変換、乱数生成の機能を提供していること、C/C++、Fortranとの統合ができること、大規模なデータセットを効率的に処理できること、Pandasなどの他のライブラリと連携できること、Matplotlibを使ったデータ可視化ができること、Scipyと連携した科学技術計算ができることなどが挙げられます。 NumPyができる開発は、データ分析、科学計算、機械学習、画像処理、信号処理、金融工学と幅広いです。 NumPyを活用している世界的サービスやプロダクトは、Google、Facebook、Microsoft、Netflixなどの企業の データ分析基盤やAI基盤で使われています。 C48 SciPyとは、NumPyをベースに構築された、科学技術計算のためのオープンソースのPythonライブラリです。 ■NumPyを活用するメリット この章ではNumPyを活用するメリットについて説明します。 NumPyを習得することにより、具体的に以下のようなメリットがあります。 ・多次元配列の効率的な処理が可能 ・行列演算やフーリエ変換など数学的な関数が豊富 ・CやFortranとの連携により高速な処理が実現可能 ・Pythonの文法をベースにしているため習得が容易 ・pandas、Matplotlibなど他のデータ分析ライブラリとの連携が容易 ・大規模なデータ処理に適している ・商用利用が可能なBSDライセンス NumPyはデータ分析、機械学習、科学技術計算など様々な分野で活用されており、データサイエンティストやAIエンジニアを中心に利用が拡大しています。上記活用する上でのメリットを踏まえて、習得可否を検討することをおすすめします。 ■NumPyを活用するデメリット この章ではNumPyを活用するデメリットについて説明します。 NumPyを習得することにより、具体的に以下のようなデメリットがあります。 ・Pythonの文法に加えて独自の記法の習得が必要 ・大量のデータ処理には大容量のメモリが必要 ・GPU活用によるさらなる高速化には別途CUDAの知識が必要 ・データ構造がメモリ上に展開されるため、巨大データには不向き NumPyはメリットが多いですが、独自記法の習得やメモリ使用量など注意すべき点がいくつかあることを理解しておきましょう。 NumPy習得を今後検討しているフリーランスエンジニアはNumPyを活用するメリットデメリットを比較した上で決めると後悔が少ないでしょう。