Tokyo Rakuten
Job Description

Business Overview


Rakuten Group, Inc., a global technology leader based in Japan, provides innovative solutions that enrich the lives of millions worldwide.

Our Technology division is pioneering in leveraging cutting-edge technologies to deliver exceptional experiences across our services.

Department Overview


The importance of catalog data as a master data is increasing as it serves as a hub and data platform that connects products and corporate data handled within Rakuten services.

By managing abundant and accurate catalog data and deploying it as master data across Rakuten services, it plays the role of core data that accelerates new service development.


The Data Knowledge Department (DKD) is committed to building data creation processes, collecting and expanding catalog data, and improving quality in order to continue providing services that meet and exceed the expectations of Rakuten's customers.


Under the mission of creating the best catalog data and improving user experience, we provide the power of Rakuten's design, technology, and operations to provide high-quality catalog data that is at the core of our business strategy.

This contributes to Rakuten's vision of "Empowering people and society through innovation".

Position

Position Details


The main development task is to build Catalog Data Solution platform that enable DKD Data asset to be more usable and helping Rakuten business to unlock business opportunity using Catalog Data Asset.

In addition to building platform to unlocking Catalog Data asset we also need to support our client to provide data that meets our clients needs.


One of the important challenges is to continuously add feature and also maintaining Platform and Data Quality of Enrichment Solution to our data client.


We also practice long-term product development as we handle the entire development process from design, development, to release and operation.

We also play a role in considering a more scalable system design while preventing or paying technical debt.

Responsibilities


Design, develop, and maintain efficient and scalable data pipelines using Apache Spark (primarily with Java) or Apache Beam or Kubeflow to ingest, process, and transform large datasets from various sources.

Design and implement optimized data models for analytical and operational use cases, considering performance, scalability, and data integrity.
Build and maintain web tools and applications in Python and Java.
Develop end-to-end applications integrating with data infrastructure.
Maintain infrastructure aligned with product and security requirements.
Contribute to product development and architecture design.
Ensure high performance and data quality.

Mandatory Qualifications

Fluent in both Japanese and English, with exceptional communication skills across diverse, multinational environment.
Minimum 3 years of proven experience in Data Engineering fields.
Demonstrated experience building production-grade data pipelines.
Track record of developing full-stack applications.
Strong background in API design and development.
Solid experience with Google Cloud Platform (GCP) services, including BigQuery, Dataflow, Dataproc, Cloud Storage, and Pub/Sub.
Expertise in data pipeline development and ETL processes.

Desired Qualifications

Understanding of AI/GenAI concepts and their data requirements is a plus.
Experience building data pipelines to support AI/ML models is a plus.
Data assets, data governance, storage, and sharing.
Background in performance optimization.
Experience as a mentor, tech lead or leading an engineering team.
Have a strong ownership and able to own project end-to-end from designing to deployment.
Experience in building and driving adoption of new products.
Strong adaptability and commitment to continuous learning, keeping up with the latest advancements in technology.

#engineer #DataEngineer #applicationsengineer #aianddatadiv

Languages

English (Overall - - Advanced), Japanese (Overall - - Advanced)
Show more Show less

  • Chiyoda Microsoft Full time¥4,000,000 - ¥12,000,000 per year

    データベースや分析の世界に強い好奇心と深い情熱を持ち、ダイナミックな環境で複雑な課題に挑戦する準備はできていますか? · Microsoftの商用顧客向けCloud & AI Innovative Data Platform Solution Engineerとして、私たちのチームに加わりませんか。 · 顧客に対してセキュアでスケーラブルなソリューション設計をガイドし、技術的な意思決定に影響を与え、データベースや分析のモダナイゼーションを推進します。 · 顧客をセキュアでスケーラブルなソリューション設計へ導き、技術的な意思決定を支援し、データベースや分析 ...

  • Data Engineer

    3週間前


    Tokyo IBM ¥900,000 - ¥1,200,000 per year

    データ活用基盤実装をリードしながら、技術の専門家としてIBM Salesやサービス部門と連携して、IBMストレージ技術を利用したソリューション開発やIBMデータ活用基盤に関する技術支援を行います。 · IBMデータ活用製品を利用したソリューション開発および、研修開発 · IBMデータマネジメントソフトウェア:DB2の技術Q&A支援と製品技術情報の発信 · お客様ビジネスの課題を理解/整理し、AIやデータを活用した課題解決を実現するデータ活用基盤のアプローチ策定 · IBM製品を中心としたスキルを生かし、データ活用基盤構築の提案支援/構想策定/デザイン/デ ...

  • Data Engineer

    2ヶ月前


    Tokyo Denodo

    データエンジニアを募集しています。グローバルオフィスチームの一員として、Denodoの学習と採用を次のレベルへと引き上げる意欲のある、技術的で情熱的、実践的なデータアドボケイトを募集しています。 · データ管理ソリューションを成功させるために必要な資料を利用できるようにすることがあなたのミッションです。 · 顧客やパートナー企業からの技術的な問い合わせや問題(トラブルなど)を、DenodoサポートサイトやEメールなどを通じて、解決策を提案します。 · お客様のビジネス要件に対応したDenodo製品のインプリメンテーション、最適化、カスタマイズに関して、設 ...


  • Tokyo BLOOMTECH, Inc ¥8,000,000 - ¥15,000,000 per year

    Data Engineer/Fintechのデータエンジニアが主役の組織風土とグローバルな環境で、 · 東大発のFintech/ビッグデータスタートアップです。 · ...


  • Tokyo Rakuten Full time¥600,000 - ¥1,800,000 per year

    The main development task is to build Catalog Data Solution platform that enable DKD Data asset to be more usable and helping Rakuten business to unlock business opportunity using Catalog Data Asset. · Design, develop, and maintain efficient and scalable data pipelines using Apac ...


  • Tokyo Rakuten ¥4,000,000 - ¥12,000,000 per year

    The Data Engineer will design, develop, and maintain efficient and scalable data pipelines using Apache Spark or Apache Beam or Kubeflow to ingest, process, and transform large datasets from various sources. · Design, develop, and maintain efficient and scalable data pipelines us ...


  • Tokyo DXC Technology ¥900,000 - ¥1,200,000 per year

    ソフトウェア開発エンジニアのニーズが非常に高まっています。自動車の設計開発業務に関する知識、プロジェクトマネージメントスキル、構成のあるべき姿の提案・提言スキル、海外メンバーと共同でシステム開発を進めるスキルが必要です。3〜5年程度のシステム開発経験、英語力、組み込み開発の実務経験があること、自動運転領域のソフトウェア開発に従事した経験が求められます。 ...


  • Tokyo TIER IV ¥483,000 - ¥1,166,000

    自動運転で発生するデータの収集・検索・分析を支えるデータ基盤の開発・運用を担当していただきます。 · ...


  • Tokyo DXC Technology ¥2,500,000 - ¥6,000,000 per year

    主に製造現場を支えるMES(製造実⾏システム)を取り扱う仕事になります。生産性と品質の向上に寄与できます。 ...


  • Tokyo DXC Technology ¥4,320,000 - ¥6,480,000 per year

    ⾃動⾞制御装置・コックピットの制御を⽀えるソフトウェア開発を⾏う 仕事です。エンジニアとしてご⾃身が開発に直接的に関わるだけでなく、ヨーロッ パにいるメンバー(海外のDXCや傘下のLuxoftのメンバー)とやり取りをしながらお客様の要望を実現するような ポジションです。 · ・3〜5年程度のシステム開発経験 · ・英語⼒(お客様の要望をヨーロッパのメンバーと共有して開発に取り組むことが多いため、業務上英語が必須となります。) · ・組み込み開発の実務経験がある(できれば⾃動⾞関連) · ・⾃動運転領域のソフトウェア開発に従事した経験 · ・⾃動⾞のソフト ...


  • Tokyo Microsoft ¥6,000,000 - ¥10,000,000 per year

    Drive technical sales with decision makers using demos and PoCs to influence solution design and enable production deployments. · ...


  • Tokyo Michael Page ¥4,000,000 - ¥10,000,000 per year

    データを活用したビジネス課題解決の経験2年以上を持つデータエンジニアを求めています。 · データモデリング、マイニング、レイヤリング等の実務経験 · Python、Scalaなどのプログラミングスキル、SQL最適化スキル · リレーショナル/非リレーショナルDBの使用経験、AWS経験尚可 · 統計的手法を用いたデータ分析・レポート作成 · 他部門やシステムとの連携によるデータ分析・報告システムの開発・実装 · 既存レポートシステムの改善・最適化 · データ分析 · データモデリング · プログラミングスキル · 経験に応じて年収最大1,000万円も可能 ...


  • Shinagawa-ku, Tokyo Equinix ¥6,000,000 - ¥8,000,000 per year

    エクイニクスはグローバルなデジタルインフラストラクチャー企業です。デジタル世界のリーダー企業は、当社の信頼性の高いプラットフォーム上に集まり、ビジネス成功のための基礎となるインフラストラクチャを相互接続しています。エクイニクスは、お客様がビジネス優位を加速するために必要となるすべての適切な場所、パートナーそして可能性にアクセスできるようにします。エクイニクスにより、お客様は俊敏性を拡大し、デジタルサービスの立ち上げを加速し、世界クラスの顧客体験を提供し、その価値をさらに高めることができます。 · ...

  • Data Solutions

    2ヶ月前


    Tokyo FactSet Full time¥4,000,000 - ¥8,000,000 per year

    FactSet's Data Solutions primary goal is to create high value differentiated data available for the FactSet workstation and for enterprise end users via direct DataFeeds. · New DataFeed implementations, including pre-sales activity, gathering client requirements, preparing sample ...


  • Tokyo Rakuten Full time¥1,500,000 - ¥2,500,000 per year

    We are looking for DevOps Engineers that are interested building and running a platform for data pipeline operations. · The platform integrates latest solutions including on-premise and public cloud computing resources, application frameworks for running new data platform applica ...


  • Tokyo Rakuten ¥6,000,000 - ¥12,000,000 per year

    We are looking for DevOps Engineers that are interested building and running a platform for data pipeline operations. · Design, implement and operate distributed system infrastructure · Development for infrastructure automation and tool creation · Collect infrastructure related m ...


  • Tokyo Michael Page ¥1,000,000 - ¥2,000,000 per year

    クラウドベースのデータ基盤構築をリード · AI・機械学習を活用した顧客データ活用を推進 · グループ全体のデータアーキテクチャ・データモデル・パイプラインの設計・最適化 · AWSやSnowflake、Sparkなどを活用したクラウドベースのデータ基盤の構築 · 分析・アプリケーション・ビジネスチームとの連携によるスケーラブルなソリューションの提供 · データ統合、クレンジング、ガバナンスの推進 · コスト効率・技術トレンドを考慮したデータワークフローの評価・改善 · ベンダーエンジニアのマネジメントと品質管理 · 顧客データ管理におけるAI/MLツー ...


  • Tokyo TIER IV ¥330,000 - ¥1,667,000 per year

    データエンジニアを募集いたします。Expert Data Engineerのポジションは、機械学習モデル学習に必要なデータセットの構築・改善の方針を決定することに責任を持ちます。Data Centric AIの思想に基づき、収集したデータの特性分析や分析コード実装を行い、機械学習モデルの性能改善に貢献することが求められます。 · ...

  • Data Engineer

    2ヶ月前


    Tokyo Rakuten

    We are looking for a talented Data Engineer to join our dynamic team and help us build and maintain robust data infrastructure. · Design, develop, and maintain scalable data pipelines using modern data technologies · Collaborate with data scientists, analysts, and other stakehold ...

  • Data Engineer

    2ヶ月前


    Tokyo Rakuten Full time

    We are looking for a talented Data Engineer to join our dynamic team and help us build and maintain robust data infrastructure. · Design, develop, and maintain scalable data pipelines using modern data technologies · Collaborate with data scientists, analysts, and other stakehold ...

  • Data Engineer

    1ヶ月前


    Tokyo Rakuten ¥4,000,000 - ¥8,000,000 per year

    We are seeking a data engineer who can contribute to business growth by strengthening Rakuten Analytics' data analysis pipeline and enhancing data processing through the utilization of new technologies, including AI. · Build and maintain high-throughput data pipelines that proces ...