RECRUIT
採用情報
INTRODUCTION
何をやっているのか?
以下の事業をやっています。
データアグリゲーション
クローラーを作ってスクレイピングしてインターネット上のデータを収集します。分析対象は多岐にわたっています。 EC系データ、コンテンツ系データ、ソーシャルメディアを組み合わせて、ユーザ動向や運営動向のトレンドを分析するというのが提供価値です。最近は機械学習の教師データを作成することも多いです。統計であれ、機械学習であれ、よいデータを集めれるかどうかで勝負がつきます。
RPA (Robotics Process Automation)
スクレイピング技術を使って、ブラウザやスマホの操作を完全自動化します。データを収集するだけではなく、判断し、操作をするところまでサポートします。ここでも基本はWebのバックエンドのスキルをフル活用しており、クラウドで動作するRPAを提供しています。画像認識やで集めてきたデータの傾向分析も行います。
ヴォイスインターネット
スマートスピーカーのスキル開発や、ヒアラブル端末を使ったVUI(ボイスユーザーインターフェース)、音声合成エンジンを開発しています。画面というUIから声というUIにシフトしていく中で、いち早くその技術的ポジションを築いています。基本となる技術は、データ収集とRPAと機械学習であるため、自社のこれまでの強みをフルに活かしています。
なぜやるのか?
まずは私(CTO山本)がデータが好きだからです。 インターネットのエンジニアリングの面白みは大量のデータを扱えるところだと感じています。誰もが新人のころにインターネットのどこかのサイトをスクレイピングして、ちょっとしたデータベースを作ってサービスの奥のデータの厚みを感じていたかと思います。インターネットサービスの大半がデータで構築されていることを体感します。
データがたくさん集まるとそこに「クセ」が見つけられる。そのクセを人間が見つけるのがデータ分析・クセを機械が見つけるのが機械学習です。いずれもデータがないと始まりません。現在はアルバイト合わせて多数のエンジニアで活動していますが、今後もサービスを拡大するため、新しい仲間を募集しています。
具体的な業務はどんな感じか?
Rubyでクローラーを書いています。サーバは全てクラウドで実行しています。クロールの規模が小さい時には、1ファイルのRubyスクリプトで済む場合もあります。簡単なことは簡単に、難しいことややればできるようにというスタンスをとっています。
複雑なケースになってくると、他社からのリクエストに応じてクロールするAPI型式で提供したり、声のメッセージをトリガーに動作するチャットbotのような形での提供もあります。企業からの依頼を元にしたプロジェクトが多いですが、いわゆる受託とは違い、プログラムの納品はあまり行いません。あくまでクロールやRPAのサービスが納品物です。従ってプログラムの作り方は「自分たちが一番うまく運用できる形」を目指しています。自社サービスとしてシステムを育成していけるのが面白いところです。
言語は、Ruby(クローラーの開発)、Python(機械学習)、JavaScript(スマートスピーカースキルのサーバレスアーキテクチャ)と使い分けています。使いたいライブラリやコンテナに応じて適宜使い分けています。無理に統一することはしていません。
REQUIREMENTS
- 求める人材像
- データとインターネットが好きな人が欲しいです。業務未経験者歓迎です。 他社に比べて研修は手厚いと思います。 プログラミングの業務経験は必要ないですが、プログラマーですので、PCの操作は慣れていることが前提です。数式に拒否反応がないというのも大事です。
- 募集職種
- サーバーサイドエンジニア
- 業務内容
-
エンジニア
・Linuxサーバーでの開発を行います。
・メインの開発はRubyとMySQLを利用します(サブとしてPython、JavaScript)。
・開発言語だけではなくWebアーキテクチャ一般の知識は必要となります。
- 勤務時間
- 10:00~19:00
- 勤務地
- 東京都渋谷区代々木4丁目28−8
- 歓迎
- データとインターネットに興味がある方
- 待遇
-
・給与改定年2回(3月・9月)
・各種社会保険完備(雇用・労災・健康・厚生年金)
・交通費全額支給
・私服勤務可
★デスクを固定せず、それぞれが好きな場所で作業するフリーアドレスの環境です
- 採用形態
-
・正社員
・アルバイト
・インターン
ENTRY
CONTACT
お問い合わせ・ご依頼はこちらから