職務内容
当社のデータチームに参加し、重要なインフラ開発を推進するシニアソフトウェアエンジニアを募集しています。この役職では、ブロックチェーン技術に重点を置き、プラットフォームを支えるスケーラブルなシステムの設計・構築に携わっていただきます。効率的なデータ処理と保存を実現するデータパイプライン、インデクサー、アグリゲーターの開発に取り組んでいただきます。主要な貢献者として、大規模分散システムのアーキテクチャを形作り、進化するビジネスニーズに対応するソリューションを実装します。さらに、組織全体でエンジニアリングのベストプラクティスを確立し、品質とパフォーマンスの高水準を維持する役割を担います。
主な責任
- 信頼性、安全性、パフォーマンスを確保しつつ、プラットフォームを支える基盤的なバックエンドおよびデータインフラの設計・開発
- 分散型アプリケーション向けにリアルタイムデータ取得と分析を可能にするスケーラブルなブロックチェーンインデクサーおよびデータアグリゲーターの作成
- 多様なデータソースと統合し、大規模データセットを処理して実用的なインサイトを提供するデータパイプラインの構築・保守
- クロスファンクショナルチームと協力し、システム要件の定義、技術的課題のトラブルシューティング、ソリューションの改善を行う
- フォールトトレランス、低遅延、高可用性を備え、負荷下でもシームレスにスケールする分散システムの最適化
- CI/CDパイプライン、コードレビュー、自動テストフレームワークなど、最先端のエンジニアリングプラクティスの導入・実施
- システムアーキテクチャ、設計判断、技術仕様の文書化によるナレッジ共有とオンボーディングの促進
- データインフラの課題に対する革新的なソリューション提案のため、新興技術や業界動向を常に把握
求めるスキル・経験
- 分散システムとブロックチェーン技術に重点を置いたバックエンド開発およびデータエンジニアリングの実績
- Python、Go、Node.jsなどのプログラミング言語に精通し、データベース(SQL/NoSQL)とクラウドプラットフォーム(AWS、GCP、Azure)のスキルを有すること
- 堅牢な分散型ソリューション設計のためのブロックチェーンプロトコル、コンセンサスメカニズム、データインデクシング技術の深い理解
- Apache Kafka、Apache Airflow、AWS Glueなどのツールを用いたエンドツーエンドデータ処理を含む、データパイプライン開発の強力な知識
- マイクロサービス、コンテナ化(Docker/Kubernetes)、API設計の専門知識を活かした大規模システムのアーキテクチャ設計・実装能力
- 厳しい期限と複雑な制約条件下で高品質なソフトウェアを提供した実績と優れた問題解決能力
- プロダクトチームやQAチームと効果的に連携するためのアジャイル開発環境(ScrumまたはKanban)での協働経験
- コンピュータサイエンスまたは関連分野の学士/修士号、および5年以上のソフトウェア開発・データエンジニアリングの専門的経験
- ブロックチェーンデータレイヤー開発の経験、暗号プロトコルの知識、データガバナンスフレームワークの理解がある場合は尚可