社内の課題をデータで解決することを目的に、データレイク上に収集されたデータの下準備、データウェアハウスへの集約データの追加、そしてデータを適切に可視化した上で、ビジネス側へフィードバックいただくことに従事していただける、データソリューションエンジニアを募集いたします。
当ポジションでは記述的な分析だけではなく、予測的な分析をビジネスに活かすことを目的に、統計学や機械学習の知識も用いた集約データの提供も積極的に行っています。
グループ全体ではデジタルを軸としたビジネス展開に注力しており、グループ内でのデータ活用による事業開発/サービス企画にも、データ領域の専門家として携わっていただける機会がございます。
具体的な業務の一例は下記のとおりです。
・データの下準備(データ変換・複数データの結合)
・集約データの仕様策定(利用者が使いやすい形式や、効率の良い集計方法の検討)
・集約データの開発/データウェアハウスへの追加(新規集約データの追加・既存集約データの保守)
・集約データを可視化/展開するシステムの開発・保守(Tableau Desktopによる集約データの可視化・Tableau Serverの提供/運用保守)
・データ活用の推進(新しく追加されたデータの利用促進・数字の見方やデータウェアハウス利用方法等、データリテラシーの向上施策の企画/実行)
・機械学習を用いたシステムの設計、構築、運用(モデリング・システム化・運用/保守など)
・Scala, Java, Python等を用いたアプリケーション開発スキル
・Linux系サーバOS上での開発に必要な、最低限の知識/経験
・SQLライクな言語(HiveQL, Impala SQL, Spark SQLなど)でのデータ分析経験
・機械学習/統計学についての基礎的な知識
・提案の実現や要望に対して、技術のプロフェッショナルとして関連部署との折衝/調整経験
上記に加えて、以下のいずれか1つ以上に対する知識・経験
・データウェアハウスやデータマートの設計、構築、運用経験
・ワークフローエンジン(Azkaban, Luigi, Airflow, Digdagなど)を使ったデータパイプラインの設計、構築、運用経験
・機械学習を利用したシステムの設計、構築、運用経験
・データマネジメントに関する知識/経験
・BIツール(Tableau, Qlikなど)の知識/経験
・Tableau Serverを運用した経験
・ログの設計/管理の経験
また同じ部署で、データレイクの開発/保守やストリーミングデータの取得/分析業務も行っております。
そのため、以下のスキルがあるとコミュニケーションが円滑に行えます。
・大規模ストリーミング処理(Fluentd, Kafka, Spark Streamingなど)
・大規模分散処理(Hive, Impala, Sparkなど)
・クラウド上での大規模分散処理(Amazon EMR, Google Cloud Dataprocなど)
・クラウド上でのストリーミングデータ分析(Kinesis, Athenaなど)基盤の知識/経験
・Hadoopセキュリティ(Kerberos認証, HDFS ACL, Sentryなど)に関する知識/経験
・様々なデータストア(時系列DB, NoSQLなど)の知識/経験
・言語:Scala, Python
・フレームワーク:Hadoop, Spark
・バージョン管理:git / GitHub Enterprise
・CI:Jenkins
・コミュニケーション: Slack, JIRA, Confluence, G Suite, JetBrainsなど
・BIツール:Tableau
常に新しい知識を吸収できる職場環境です。
長期
月末締め、翌月末払い
都内複数オフィス、もしくは自宅
裁量労働制(1日8時間のみなし労働)
職種や職位、開発手法やフェーズにとらわれず、開発の成功のために自発的に行動できる方、
ぜひお力を貸してください。
フルリモート可能ですので、柔軟な働き方を求めている方のご応募お待ちしております。
契約形態 | 業務委託(準委任) 派遣 |
---|---|
言語・スキル | Python Scala |
職種 | その他エンジニア |
エリア | 東京都 |
稼働日数 | 週5日 |
特徴・こだわり | 安定稼働 長期プロジェクト リモート可 |
開発環境 | Git GitHub Hadoop Jenkins その他 |
業種 | SI/業務系 |