Tokyo, Tokyo Atify - Positive Impact with AI

Atify is assisting a major Japan-based enterprise specializing in data-driven marketing, retail analytics, and consumer insights in expanding its data and engineering teams.

Employment type

3-month renewable contract

Language: English (business level) + Japanese (a plus)

Role Summary

As a QA Engineer focused on data, you will work closely with data engineers, analytics teams and stakeholders to ensure the accuracy, reliability, and integrity of our data pipelines, transformation workflows and downstream data products. Your mission: validate that data moving through ingestion, cleansing, transformation, and loading meets business rules and quality standards.

  • ResponsibilitiesDesign, develop and execute test plans, test cases and automated validation scripts for ETL/ELT/data-pipeline workflows (batch &/or streaming).
  • Validate data ingestion from source systems (structured/unstructured), ensure correct transformation logic, and that data lands in target systems (data lake, data warehouse, analytics platform) as expected.
  • Develop and maintain data quality checks, data profiling, data cleansing/validation frameworks.
  • Monitor data pipelines for issues such as data drift, schema changes, missing values, duplicates, out-of-range values, inconsistencies.
  • Work with data engineers/architects to define and embed data quality rules and metrics (completeness, accuracy, consistency, timeliness).
  • Automate data verification tests (for example, as part of CI/CD or data-ops pipelines) to catch defects early in the data lifecycle.
  • Document data issues, track defects, and collaborate with engineering teams to root-cause, resolve and prevent data quality problems.
  • Review data transformations, business logic, data flows and help design test strategy for downstream reporting/analytics/data-science use cases.
  • Provide visibility into data quality via dashboards, metrics, alerts and stakeholder reporting.
  • Advocate for data-quality best practices across the organisation (data quality-by-design, observability, proactive monitoring).

  • Key Skills & QualificationsStrong SQL skills (writing complex queries for verifying data, profiling, checking integrity).

  • Experience with one or more programming languages (e.g., Python, Scala) for automation of data-validation scripts.
  • Understanding of data pipeline architectures (Ingestion → Transformation → Loading) and associated tools (ETL/ELT, streaming, batch).
  • Familiarity with data warehouse / data lake / Big Data technologies, cloud environments (AWS, Azure, GCP) is a plus.
  • Experience designing test cases for data pipelines (e.g., verifying schema, row counts, aggregations, joins, deduplication, null handling).
  • Ability to identify and monitor data-quality metrics (accuracy, completeness, consistency, timeliness), implement monitoring/alerting.
  • Excellent analytical skills: able to break down complex data flows, detect anomalies, drill into root causes.
  • Good communication skills: to liaise with business stakeholders, data engineers, analysts and clearly document issues and findings.
  • Prior experience in QA/testing (software or data) and familiarity with test-automation frameworks is helpful.
  • Preferably a degree in Computer Science, Data Science, or related field (or equivalent experience).

  • Preferred / Nice-to-HaveExperience with streaming data technologies (Kafka, Kinesis) or real-time pipelines.

  • Knowledge of modern data-observability tools (monitoring data quality, schema drift, data-drift detection).
  • Experience in data-governance, metadata management, or data-cataloging.
  • Familiarity with DevOps/CI-CD pipelines (embedding data-tests into production builds).
  • Domain experience (finance, healthcare, ecommerce) where data correctness and regulatory compliance matter.

  • What We OfferOpportunity to impact the foundation of how the organisation uses data and decision-making.

  • Work in a cross-functional, data-driven culture with engineers, analysts & business partners.
  • Exposure to modern data platforms and technologies.
  • International Global Environment.


  • Tokyo, Tokyo Atify - Positive Impact with AI ¥3,500,000 - ¥6,000,000 per year

    As a QA Engineer focused on data, you will work closely with data engineers, analytics teams and stakeholders to ensure the accuracy, reliability, and integrity of our data pipelines, transformation workflows and downstream data products. · Design, develop and execute test plans, ...


  • Tokyo, Tokyo Atify - Positive Impact with AI ¥2,500,000 - ¥5,000,000 per year

    As a QA Engineer focused on data, you will work closely with data engineers, analytics teams and stakeholders to ensure the accuracy, reliability, and integrity of our data pipelines, transformation workflows and downstream data products. · Design, develop and execute test plans, ...


  • Shibuya Johnson Controls

    ビル管理システムの品質管理業務、ヒューマンエラーの原因究明、再発防止、客先報告書の作成および報告実施、継続的な品質プロセスの改善です。 · ...


  • Tokyo Autify

    Lead,QE · QA Team Leader · ...


  • Tokyo Autify

    グローバル市場の変化に応じて、ソフトウェアを素早くリリースすることが求められており、アジャイル開発が主流となっています。質問作業は時間がかかりすぎるため、自動化への移行が急務となっています。QAのグローバル予算は130兆円にも登ると言われており、私たちはこの巨大なグローバルマーケットを勝ち取るため、日本のみならず海外への早急な展開をしていきます。 · ...

  • Data Engineer

    1ヶ月前


    Tokyo IBM ¥900,000 - ¥1,200,000 per year

    データ活用基盤実装をリードしながら、技術の専門家としてIBM Salesやサービス部門と連携して、IBMストレージ技術を利用したソリューション開発やIBMデータ活用基盤に関する技術支援を行います。 · IBMデータ活用製品を利用したソリューション開発および、研修開発 · IBMデータマネジメントソフトウェア:DB2の技術Q&A支援と製品技術情報の発信 · お客様ビジネスの課題を理解/整理し、AIやデータを活用した課題解決を実現するデータ活用基盤のアプローチ策定 · IBM製品を中心としたスキルを生かし、データ活用基盤構築の提案支援/構想策定/デザイン/デ ...

  • Sr Quality Engineer

    1週間前


    Tokyo Johnson Controls Full time

    品質管理業務です。 · トラブル調査、問題解決(中央監視、コントローラなど) · ...


  • Tokyo DXC Technology ¥4,320,000 - ¥6,480,000 per year

    ⾃動⾞制御装置・コックピットの制御を⽀えるソフトウェア開発を⾏う 仕事です。エンジニアとしてご⾃身が開発に直接的に関わるだけでなく、ヨーロッ パにいるメンバー(海外のDXCや傘下のLuxoftのメンバー)とやり取りをしながらお客様の要望を実現するような ポジションです。 · ・3〜5年程度のシステム開発経験 · ・英語⼒(お客様の要望をヨーロッパのメンバーと共有して開発に取り組むことが多いため、業務上英語が必須となります。) · ・組み込み開発の実務経験がある(できれば⾃動⾞関連) · ・⾃動運転領域のソフトウェア開発に従事した経験 · ・⾃動⾞のソフト ...


  • 東京都 区, 株式会社バイオス ¥3,500,000 - ¥4,000,000 per year

    データセンターやヘルプデスクなどのサポート業務に興味のある方、ITインフラに関する基礎知識をお持ちの方はご応募ください。 · ...


  • Tokyo TIER IV

    自動運転で発生するデータの収集・検索・分析を支えるデータ基盤の開発・運用を担当していただきます。 · 車両からの走行データを収集・加工するデータパイプラインの開発・運用 · 走行履歴や統計情報を提供するAPIの開発・運用 · ...


  • Tokyo TIER IV ¥7,343,000 - ¥8,590,000 per year

    自動運転ソフトウェアの品質指標の策定及び計測・分析の実施。品質課題の設定 · 課題分析に基づくリファクタリング実行と効果測定の推進 · ...


  • Tokyo, Tokyo Atify - Positive Impact with AI ¥3,000,000 - ¥5,000,000 per year

    We are seeking a QA Engineer focused on ETL/Data Quality. · ...


  • Tokyo TIER IV ¥330,000 - ¥1,667,000 per year

    データエンジニアを募集いたします。Expert Data Engineerのポジションは、機械学習モデル学習に必要なデータセットの構築・改善の方針を決定することに責任を持ちます。Data Centric AIの思想に基づき、収集したデータの特性分析や分析コード実装を行い、機械学習モデルの性能改善に貢献することが求められます。 · ...


  • Tokyo BLOOMTECH, Inc ¥8,000,000 - ¥15,000,000 per year

    Data Engineer/Fintechのデータエンジニアが主役の組織風土とグローバルな環境で、 · 東大発のFintech/ビッグデータスタートアップです。 · ...


  • Tokyo Olympus Corporation ¥2,000,000 - ¥2,800,000 per year

    oarinpussuttekitenriyoosuru · 空 2 45 · ...


  • 東京都 港区 六本木, グリーグループ メタバース事業 ¥2,000,000 - ¥2,800,000 per year

    REALITYアプリ/データエンジニア/Data Engineerの職種です。 · 現在の課題に対処するためのプロジェクトを立ち上げましたが、人数やスキルで進められていない状況があります。このポジションでは、「データ分析基盤の改善」を推進するために必要な技術者を募集しています。 · ...


  • Tokyo TIER IV ¥483,000 - ¥1,166,000

    自動運転で発生するデータの収集・検索・分析を支えるデータ基盤の開発・運用を担当していただきます。 · ...


  • Tokyo DXC Technology ¥900,000 - ¥1,200,000 per year

    ソフトウェア開発エンジニアのニーズが非常に高まっています。自動車の設計開発業務に関する知識、プロジェクトマネージメントスキル、構成のあるべき姿の提案・提言スキル、海外メンバーと共同でシステム開発を進めるスキルが必要です。3〜5年程度のシステム開発経験、英語力、組み込み開発の実務経験があること、自動運転領域のソフトウェア開発に従事した経験が求められます。 ...


  • Tokyo DXC Technology ¥2,500,000 - ¥6,000,000 per year

    主に製造現場を支えるMES(製造実⾏システム)を取り扱う仕事になります。生産性と品質の向上に寄与できます。 ...


  • Tokyo Michael Page ¥4,000,000 - ¥10,000,000 per year

    Data Engineerの職務内容は大規模なデータセットの管理と分析をサポートすることです。大学卒以上でPython、Java、Rなどのデータ処理経験がある人が必要です。Hadoop、Sparkなどの分散処理技術の経験 · NLPやAIモデルの基礎知識 · ...


  • Tokyo Michael Page

    データ活用をリードするData Engineer募集|グローバル環境でキャリアを築く · ユーザーやプロジェクトチームとの要件定義 · ビジネス要件に基づくデータソリューション設計 · Scala/Spark/Javaを用いた大規模データパイプラインの設計・実装 · ...