1 - 30件/全2,218件
ゲーム開発における分析基盤の設計から運用、ログ設計や集計対応など、分析環境を整える業務をお任せいたします。 具体的な作業は下記を想定しております。 ・分析基盤システムの設計、構築、運用 ・収集するログデータの設計、DBデータの整備、集計、管理 ・BIツールやKPIダッシュボードの開発、運用 ・データアナリストへの技術的サポート ※ご経験によっておまかせする作業内容が変わります。
案件の必須スキル
・SQLを用いたデータ抽出、加工経験 ・AWSもしくはGCPを用いた開発経験
フィンテックサービスでのデータの利活用を支えるデータ基盤の 運用開発のため開発メンバーを募集しています。 内製アプリケーションの改修改善、及び 新しいデータ基盤の構築にあたっての作業をお願いいたします。 digdagを利用したデータフロー、BigQueryに構築されたDWHなど様々な仕組みが動いており、 障害に関する修正や、データ利用者からの問い合わせ対応などをお任せいたします。 また、新たなデータ基盤を構築するにあたっての作業もお願いすることがあります。 ・新データ基盤構築の開発・課題改善 ・既存データ処理システムの保守運用 ・データの可視化 ・マーケティングの支援(キャンペーンの運用) ・データのクロスチェック ・他チームからのデータに対する問い合わせ対応
案件の必須スキル
・週5フルタイム稼働可能な方 ・日本国籍の方 ・30〜40代の方 ・都内への出社が可能な方 ・データ基盤の開発・運用・保守の実務経験 2年以上 ・1つ以上のスクリプト言語を用いた開発・運用・保守経験1年以上 ・SQLを用いたデータベース操作、集計の実務経験 ・関係する各所と積極的にコミュニケーションを図ることができる方
銀行の法人お客様向け(中小企業)向けに展開したい商材に対する探索的分析支援 ーデータ選定・検品・抽出(欠損・異常値・分布などの確認、分析利用可否の判断など) ーセグメンテーションおよびターゲットの検討(商品特性からターゲットを検討) ・大手金融機関で現在実施している月次定型業務の巻き取り ・作業例は以下を想定 -新規法人口座開設をベースとした、セールス対象とする顧客情報リストの作成
案件の必須スキル
・ビッグデータ(数億レコード)のデータエンジニアリングスキル ・データクレンジングスキル(欠損確認/異常値確認 等) ・データ前処理スキル(名寄せ/対数変換/標準化 等) ・可視化・基礎俯瞰・示唆導出のスキル ・行員様の分析仮説・指示に従い、上記データエンジニアリングを遂行できること ・PJ遂行に必要なコミュニケーション能力 ・PJ遂行に向けて能動的に動く姿勢
機械学習の活用においてエンジニアリング面をリードしていただきます。 ・機械学習基盤の設計と構築(Training pipeline, Serving, Monitoring など) ・機械学習(特にレコメンデーション)を用いたプロダクトの設計・開発 ・要件定義、開発進行、技術的意思決定などの推進・リード ・運用フロー、実験管理の自動化・効率化 ・システムの信頼性 / 品質の向上 ※フルリモート可能 Python
案件の必須スキル
・レコメンデーション分野におけるプロダクト開発の実務経験:3年以上 ※コンテンツ推薦、商品推薦、パーソナライズド、ランキングなど ・チームまたはプロジェクトのリード経験 ・MAUが最低数十万以上の規模、もしくはそれに近いトラフィックやデータ量での経験
・データパイプラインの設計・構築業務にに携わっていただきます。 ・具体的には下記をご担当いただきます。 -様々な外部データソース(例:Google Drive, Dropbox, Webpage, etc)とのデータ連携のための処理の実装 - データの正確性、完全性、一貫性を保証するためのデータ品質管理プロセスの設計と実装 -データパイプラインの健全性を監視するシステムの構築
案件の必須スキル
・Pythonを用いたデータ処理(Flask, Pandas, NumPy, Daskなど)の実務経験3年以上 ・GCPを用いたデータウェアハウス、データレイク、またはデータパイプライン構築の実務経験 ・リレーショナルデータベース(例:PostgreSQL, MySQL)またはデータウェアハウス(例:BigQuery)における ・SQLを用いたデータ操作、分析、および最適化の実務経験 ・バッチ処理およびストリーミング処理を含む、データパイプラインの設計、構築、運用の実務経験
大手自動車関連メーカー様の自動運転に関するを開発基盤を構築するプロジェクトでエンジニアを募集してます。 具体的にはAWSを使用し、AIモデル開発サイクル基盤を構築するための設計や構築、アーキテクトを検討していただきます。 また、お客様の要件をタスク化し、それをブレークダウンしながら円滑にコミュニケーションを取れる方を募集します。 具体的な業務としては以下になります。 ・AIモデル開発サイクル基盤を構築するための設計や構築、アーキテクトを検討 ・各種アプリケーションのクラウドネイティブ化の支援 ■職種の魅力 【得られるキャリア・職場の魅力】 クライアントや他メンバーと一緒にAIモデル開発サイクル基盤の設計/構築を行っていただきます。最新の技術スタックに関わりながら大手自動車メーカーの自動運転という社会プロジェクトへの貢献ができます。 クライアントとも同じメンバーとして働くことができるため密なコミュニケーションが取れるほか、提案や改善や意見を率直に言える環境です。 単にインフラ基盤の構築だけでなく、開発サイクルを作り上げる仕組みづくりから関わることができます。 AWS
案件の必須スキル
・クラウドインフラ(主にAWS)の設計、構築経験 ・Python等の開発経験 ・Git操作が一通りできること ・IaC(Terraformなど)を使用してクラウドインフラの使用経験 ・使ったことのない技術に関するキャッチアップ力
======================== ※必ずお読みください※ 【必須要件】 東京の顧客先に常駐できる方 【外国籍の方の場合】 日本語能力検定1級お持ちの方 日本語が母国語の方 ======================== ・各種システムからの BigQuery へのデータパイプラインの構築・運用 ・関連部署や関連チームとのコミュニケーションが必要になります ・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用 ・現行システムから新システムへのデータ移行
案件の必須スキル
・GCP、AWS などクラウドでのデータ分析基盤の構築・運用経験 ・BigQuery の利用経験(1年以上必須) ・DWH へのデータパイプラインの運用経験 ・データベースに関する知識と SQL の利用経験 ・Python 開発経験 ・チャットコミュニケーション (Slack) が中心となるため、チャットコミュニケーションに抵抗がない方(必要に応じてMTGも実施します)
======================== ※必ずお読みください※ 【必須要件】 東京の顧客先に常駐できる方 【外国籍の方の場合】 日本語能力検定1級お持ちの方 日本語が母国語の方 ======================== ・各種システムからの BigQuery へのデータパイプラインの構築・運用 ・関連部署や関連チームとのコミュニケーションが必要になります ・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用 ・現行システムから新システムへのデータ移行
案件の必須スキル
・GCP、AWS などクラウドでのデータ分析基盤の構築・運用経験 ・BigQuery の利用経験(1年以上必須) ・DWH へのデータパイプラインの運用経験 ・データベースに関する知識と SQL の利用経験 ・Python 開発経験 ・チャットコミュニケーション (Slack) が中心となるため、チャットコミュニケーションに抵抗がない方(必要に応じてMTGも実施します)
■案件概要 企業全体のデータ利活用に向けて、Snowflakeを活用したエンタープライズアーキテクチャの設計・構築をご担当いただきます。 データメッシュ型マルチアカウント運用を想定したアカウント・組織設計、 RBACに基づく詳細なロール・権限設計(アカウントレベル、データベース・ スキーマレベル、カラム・行レベルのアクセス制御)、セキュリティポリシー策定、 データ共有時のセキュアな仕組み構築までを行います。 ■業務内容(現状の想定,変動あり) 〇Snowflakeの環境構築・アーキテクチャ設計 ・企業全体のデータ利活用に向けたSnowflakeアカウントおよび組織設計(データメッシュやマルチアカウント戦略を考慮した設計) ・エンタープライズアーキテクチャに則ったSnowflakeのインフラ設計、アカウント分割設計 〇組織全体のデータガバナンス策定 ・Snowflakeを活用したデータガバナンス方針の設計・策定(データ共有ポリシー、セキュリティ要件整理) ・企業規模でのセキュリティポリシーやアクセス管理ルールの策定・ドキュメンテーション 〇Snowflake権限設計・RBAC実装 ・RBAC(ロールベースのアクセス制御)の設計・設定・実装 ・アカウントレベル(SECURITYADMIN、SYSADMIN、USERADMINなど)およびデータベース・スキーマレベルのロール設計 ・カラムレベル・行レベルでの詳細なアクセス制御設定(Row Access Policy、Column Masking Policy) ・Secure ViewsやSecure UDFsを活用したデータ共有時のセキュリティ設計 〇運用ルールの整備 ・Snowflakeを活用した企業全体での運用フロー整備 ・障害対応プロセス策定、定期的な運用改善、コスト管理・最適化提案 〇関係部署との調整・プロジェクト推進 ・データ活用を目的とした各部門(経営企画、マーケティング、エンジニアリング等)とのコミュニケーション ・要件整理・定義から実際の構築・導入支援までをリード ■その他 ・稼働の仕方:基本的には出社を想定しておりますが、ご面談次第ではリモートでの稼働も検討可能です ・出社場所:港区
案件の必須スキル
・Snowflakeでの複数の構築実績 ・Snowflake1年以上の構築・設計
・DWHの再構築に向けての現状分析から計画策定支援(2025年年度中に対応) -現状分析と課題整理 -新DWHの要件定義 ・BIツールの再導入支援(2026年度中には現行BIツールと並行して入れ替えを検討) -現状分析と要件定義支援 -BIツールの選定支援 ・上記業務における業務推進と各種ドキュメント作成 ・各種ステークホルダー(工場現場担当者を含む)への調整業務
案件の必須スキル
・製造業向けPJでの構想策定やシステム要件定義などの上流工程の経験 ・DWHやDBの設計/構築経験 ・BI・データ可視化ツールの知見 ・ご自身で業務を推進してくコミュニケーション能力もしくは推進力
======================== ※必ずお読みください※ 【必須要件】 東京の顧客先に常駐できる方 【外国籍の方の場合】 日本語能力検定1級お持ちの方 日本語が母国語の方 ======================== ・各種システムからの BigQuery へのデータパイプラインの構築・運用 ・関連部署や関連チームとのコミュニケーションが必要になります ・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用 ・現行システムから新システムへのデータ移行
案件の必須スキル
・GCP、AWS などクラウドでのデータ分析基盤の構築・運用経験 ・BigQuery の利用経験(1年以上必須) ・DWH へのデータパイプラインの運用経験 ・データベースに関する知識と SQL の利用経験 ・Python 開発経験 ・チャットコミュニケーション (Slack) が中心となるため、チャットコミュニケーションに抵抗がない方(必要に応じてMTGも実施します)
======================== ※必ずお読みください※ 【必須要件】 東京の顧客先に常駐できる方 【外国籍の方の場合】 日本語能力検定1級お持ちの方 日本語が母国語の方 ======================== ・各種システムからの BigQuery へのデータパイプラインの構築・運用 ・関連部署や関連チームとのコミュニケーションが必要になります ・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用 ・現行システムから新システムへのデータ移行
案件の必須スキル
・GCP、AWS などクラウドでのデータ分析基盤の構築・運用経験 ・BigQuery の利用経験(1年以上必須) ・DWH へのデータパイプラインの運用経験 ・データベースに関する知識と SQL の利用経験 ・Python 開発経験 ・チャットコミュニケーション (Slack) が中心となるため、チャットコミュニケーションに抵抗がない方(必要に応じてMTGも実施します)
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可
案件の必須スキル
• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル
職務内容 当社は、創業以来培ってきたユーザーインターフェイスのノウハウとコンシューマー向けサービスの経験を活かし、ショッピングアシストアプリの事業開発を行っています。 複雑な調べ作業や難しい入力の手間などを自動化し、誰もがフラットに、便利に、楽しく、経済的にオンラインコマースを利用できる世界を目指しています。 今回はショッピングアシストアプリの開発を行う社内データアナリストを募集します。 【仕事概要】C向けサービスという特性上、数千万人という規模の非常に多くのユーザーに利用していただくことを想定しています。既に10万人が毎日利用していますが、プロダクト改善・意思決定のために詳細に操作ログを取得しています。送信されるイベントログの量は膨大です。これらのログをしっかり意味を持って分析し、定義し、可視化し、事業に大切なKPI設定や意思決定ができるよう、データ活用文化を会社に植え付けて欲しいです。さらに、当社のプロダクトは普通のアプリではありません。ブラウザ拡張機能です。そして、ユーザーから許諾を得て一部のブラウジング関連データをいただいております。これは、とてつもなく膨大なデータになります。そこから適切な分析とマイニングを行うことで、これまでどの事業者も見出せなかった事実や価値を導き出すこともできます。 【ショッピングアシストアプリについて】 入れておくだけでオンラインショッピングがお得になる、ショッピングアシストアプリを2022年3月に正式リリースしました。以降、順調にユーザー数を伸ばしており、現在毎日約30万人のユーザーにご利用いただいています。拡張機能を有効にすることで、対象のECサイトにおけるキャッシュバックやクーポンを自動で発見します。 また、対象のECモールの商品ページにアクセスすると、より安く購入できるショップを自動検索し表示します。エンドユーザーのショッピング体験を良くするだけでなく、提携するEC事業者を大きくサポートすることができています。現在1000以上のサイトに対応し、ECサイト訪問者のコンバージョン率、リピート率、購入単価の改善に貢献しています。 概要詳細 【具体的な仕事内容】 ・KPI策定、事業分析、課題抽出 ・課題解決のための仮説立案・検証 ・DWH(BigQuery)のデータをSQLを用いて集計・抽出 ・BIツール等への可視化作業(ダッシュボード作成) ・応用:機械学習を用いた予測モデル開発 <分析環境> 利用言語 ・SQL(StandardSQL),Python DB・データソース ・BigQuery,GoogleSpreadSheet ETL ・AWSGlue ・Fivetran ◆この会社で叶えられること(一例) ・かなり技術力の高いメンバーで成り立っています。いい意味での刺激も多く、ご自身の実力を試すには非常に良い環境かと思います。 ・大量のユーザーデータに触れることができ、データを使ってインターフェイスに落とし込むようななかなかない体験が可能です。 【求める人物像(人間性を重んじています)】 ・常に目的を自身で明確にして業務を遂行できる方 ・できるかわからないことをワクワクできる方 ・数字を見てロジカルに意思決定できる方 ・旧来的な戦略にとらわれず、新しい戦略に挑戦できる方 ・目標に向けて、こだわりを持って仕事ができる方 【チーム構成】 エンジニアリング組織につきましては1つのプロダクトにつき1チームです。 必須スキル ・分析目的のSQLの記述(3年以上) ・BigQueryの利用経験 歓迎スキル ・統計の基礎的な知識 ・GoogleDataPortalやRedashなどBIツールの利用経験 単価 700,000円〜1,000,000円 ※週5日の場合 働き方 完全フルリモート 開始時期(期間) 即日 週稼働日数 3〜5日
案件の必須スキル
◆仕事概要 C向けサービスという特性上、数千万人という規模の非常に多くのユーザーに利用していただくことを想定しています。 既に10万人が毎日利用していますが、プロダクト改善・意思決定のために詳細に操作ログを取得しています。 送信されるイベントログの量は膨大です。 これらのログをしっかり意味を持って分析し、定義し、可視化し、事業に大切なKPI設定や意思決定ができるよう、 データ活用文化を会社に植え付けて欲しいです。 さらに、当社のプロダクトは普通のアプリではありません。ブラウザ拡張機能です。 そして、ユーザーから許諾を得て一部のブラウジング関連データをいただいております。 これは、とてつもなく膨大なデータになります。そこから適切な分析とマイニングを行うことで、 これまでどの事業者も見出せなかった事実や価値を導き出すこともできます。 ◆ 具体的な仕事内容 ・KPI策定、事業分析、課題抽出 ・課題解決のための仮説立案・検証 ・DWH(BigQuery)のデータをSQLを用いて集計・抽出 ・BIツール等への可視化作業(ダッシュボード作成) ・応用:機械学習を用いた予測モデル開発 ※エンジニアリング組織につきましては1つのプロダクトにつき1チームです。 ◆この会社で叶えられること(例) ・かなり技術力の高いメンバーで成り立っています。 いい意味での刺激も多く、ご自身の実力を試すには非常に良い環境かと思います。 ・大量のユーザーデータに触れることができ、 データを使ってインターフェイスに落とし込むようななかなかない体験が可能です。 ◆求める人物像(人間性を重んじています) ・常に目的を自身で明確にして業務を遂行できる方 ・できるかわからないことをワクワクできる方 ・数字を見てロジカルに意思決定できる方 ・旧来的な戦略にとらわれず、新しい戦略に挑戦できる方 ・目標に向けて、こだわりを持って仕事ができる方 ◆この求人に相応しくない人物像 ・自己中心的な方 ・顧客志向が一切なく、ただ言われたことだけを実行する方 ◆事業・プロダクト概要 当社は、創業以来培ってきたユーザーインターフェイスのノウハウとコンシューマー向けサービスの経験を活かし、 ショッピングアシストアプリの事業開発を行っています。 複雑な調べ作業や難しい入力の手間などを自動化し、誰もがフラットに、便利に、楽しく、経済的に オンラインコマースを利用できる世界を目指しています。 ◆ショッピングアシストアプリについて 入れておくだけでオンラインショッピングがお得になる、ショッピングアシストアプリを2022年3月に正式リリースしました。 以降、順調にユーザー数を伸ばしており、現在毎日約30万人のユーザーにご利用いただいています。 拡張機能を有効にすることで、対象のECサイトにおけるキャッシュバックやクーポンを自動で発見します。 また、対象のECモールの商品ページにアクセスすると、より安く購入できるショップを自動検索し表示します。 エンドユーザーのショッピング体験を良くするだけでなく、提携するEC事業者を大きくサポートすることができています。 現在1000以上のサイトに対応し、ECサイト訪問者のコンバージョン率、リピート率、購入単価の改善に貢献しています。
案件の必須スキル
・分析目的のSQLの記述 ・BigQueryの利用経験
医療系プラットフォームのサーバーサイド開発。 サーバーサイド専門としてAWSのサービスを活用しながら、技術の選定から実装まで行っていただきます。
案件の必須スキル
・Pythonでのサーバーサイド設計/開発/テスト経験 ・TypeScriptでのフロント開発経験(FW指定無し) ・AWS、GCP、 Azure等のパブリッククラウド環境下での開発経験 ・RDBMS又はNoSQLの知識 or 設計経験
個人の様々な行動データを基にしたデータプラットフォームを用いて、各種分析から施策企画・検討までを行います。 下記、主な業務内容となります。 ・データマート構築(要件定義、設計、実装、テスト) ・データエンジニアリング業務(データの収集、加工、集計) ・バッチ基盤の運用保守 ・DMBOKを軸にしたデータマネジメント業務、及び利活用促進 ・dbtを用いたデータ変換とモデルの開発 ・データ利活用促進のためのメタデータ及びデータカタログ整備
案件の必須スキル
・週5フル稼働可能な方 ・要件定義のご経験 ・システム開発の経験5年以上(Python、Javaなど) ・データベース(SQL, RDB, NoSQL, DWHなど)関連の業務経験 ・データ活用環境(データ分析基盤など)の構築、 または、データ活用の実務(戦略、分析、施策改善等)の経験
kubernetes 上に構築したアプリケーションの開発や運用業務に携わっていただきます。 ・アプリケーション開発 ・データ系アプリケーションのワークフロー開発 ・運用改善 Go
案件の必須スキル
・アプリケーション開発経験:3年以上 ・Goの開発経験:3年以上 ・顧客視点のコミュニケーションができる方
大手自動車部品メーカー様の主に画像データをMLOpsで利用できるデータセットとして管理する基盤の構築をするプロジェクトでエンジニアを募集してます。 顧客の要望に応じ、データを加工しデータを用意したり、それに伴うデータベースの構築などご担当いただきます。また直近ではDWHの移行などの作業もございます。 ■得られるキャリア クライアントや他メンバーと同じチームを組んで、大規模データ処理基盤の構築を行っていただきます。最新の技術スタックに関わりながら大手自動車メーカーの社会プロジェクトへの貢献ができます。 クライアントとも同じメンバーとして働くことができるため密なコミュニケーションが取れるほか、改善や意見を率直に言える環境です。 フルリモート、コアタイムなしのフルフレックスで、稼働も落ち着いているため、ワークライフバランスを実現しやすい働き方が可能です。 Python
案件の必須スキル
・AWS上での開発経験 ・Python開発経験 ・Git操作が一通りできること ・DataBase(RDB)を活用したアプリケーションの開発経験 ・IaC(Terraformなど)を使用してクラウドインフラの使用経験 ・使ったことのない技術に関するキャッチアップ力
▼受領データの変換処理の開発 顧客企業から受領したデータをSaaSのデータ仕様に合わせるため、データ連携基盤ではデータの変換を行っています。 顧客企業によってデータ形式が異なるため、データ変換処理は個別に実装し対応しています。 そのデータ変換処理について、設計、実装、テスト、リリースまでを担当頂きます。 設計は、顧客企業から受領したデータをどのように変換するか検討し、設計書に記載していきます。 実装は、作成した設計書を元に変換処理の実装を行います。 ▼集計データを顧客システムに繋ぐ開発 FULL KAITENで集計したデータをお客様に活用していただくため、顧客システムにデータを送信する開発を行っています。 顧客システムで取り込むためにデータ形式を変換して送信しています。設計、実装、テスト、リリースまでを担当頂きます。 Python
案件の必須スキル
・3年以上のプログラミング実務経験 - 特にPythonを用いてpandasが扱える方 ・システム設計の経験 ・クラウド環境の開発経験 - Docker, Terraform, git ・SQLを用いたデータ集計とデータ連携の実務経験 - ウィンドウ関数を使用したクエリ作成 - 集計関数を用いたデータの集計・分析 - 複数テーブルの結合(JOIN)を含むクエリの設計 - サブクエリやCTE(共通テーブル式)を使用した効率的なデータ抽出 - インデックスの理解と活用によるクエリのパフォーマンス最適化 - データ正規化/非正規化に基づいたデータモデリングの知識 - トランザクション管理やロックメカニズムの理解(ACID特性) - エラーハンドリングや例外処理の実装
1 - 30件/全2,218件
この条件の新着案件情報を受け取る
経験・スキルで絞り込み
単価で絞り込み
エリアで絞り込み
この条件の新着案件情報を受け取る