Posts on Apr 2018

役員人事について

Preferred Networks(以下、PFN)は、事業領域の拡大と、それにともなう様々な技術要素の研究開発、事業の推進のため、このたび新しい取り組みとして、執行役員制度とPFN Fellow制度を導入します。

若い人に成長の機会を提供し、経験を積んだ人がそれをサポートするというPFNの企業文化を強化するとともに、急成長する組織を可能な限りフラットに保ち、スピードを落とさずに判断や行動ができることを目指しています。また、PFN Fellowは、長年にわたって研究分野に著しい貢献があり、社内外からも高い評価を得ている研究開発者に対して任命するものです。

PFNは、責任の適切な移譲・運用、サステイナブルな会社組織を実現することで、一人一人が主体的に事業や研究に関わり、お互いの信頼関係を形成し、チームとしてさらに成長してまいります。

 

  • 取締役(3名)

 

西川 徹             代表取締役社長

岡野原 大輔     代表取締役副社長

奥田 遼介         取締役

 

  • 執行役員(7名)

 

秋葉 拓哉

岡野原 大輔

奥田 遼介

高橋 正和

西川 徹

長谷川 順一

山本 潔

 

  • PFN Fellow(1名)

 

丸山 宏

以上

オープンソースの深層学習フレームワークChainer および 汎用配列計算ライブラリCuPy の最新版となるv4をリリース

株式会社Preferred Networks(本社:東京都千代田区、代表取締役社長:西川徹、プリファードネットワークス、以下、PFN)は、オープンソースの深層学習フレームワークChainerTM(チェイナー)および汎用配列計算ライブラリ CuPyTM(クーパイ) のメジャーアップデート版となるv4 をリリースしました。

Chainer とCuPyは、最新の深層学習研究の成果を取り入れ、6ヶ月ぶりにメジャーバージョンアップをしました。今回リリ―スした最新版 v4では、ほとんどのコードを変更することなくそのまま動作可能です。

 

Chainer およびCuPy v4の主な特長は次の通りです。

● NVIDIA(R) GPU上での高速・省メモリな学習のための機能追加※1

NVIDIA TensorCoreをサポートし、畳込み演算を高速化しました。また、ロススケーリングを実装し、半精度浮動小数点数を用いることによる勾配消失を緩和しました。

● CuPy のインストールが高速化

CuPyのバイナリパッケージの提供を開始し、これまで約10分かかっていたインストール時間を約10秒に高速化しました。

● Intel(R)アーキテクチャ向け最適化

Intel Deep Learning Package (iDeep)※2バックエンドを追加して、Intel CPUでの学習および推論の高速化を実現しました。これにより、当社のベンチマークにおいて、GoogLeNet(画像認識用のニューラルネットワークのひとつ)でのCPU使用時の推論速度が従来比8.9倍に向上※3しました。

● 二階微分をサポートする関数をさらに追加

v3から導入された二階微分のサポート範囲が広がり、最新のネットワークやアルゴリズムを記述する自由度がさらに向上しました。

Chainerでの学習結果をCaffe 形式でエクスポートする機能を追加

Chainerの計算手順と学習した重みをCaffe形式でエクスポートする機能を実験的に追加しました。これにより、Pythonが動かない環境でもChainerの学習結果の利用が容易になります。(ONNX形式へのエクスポートは引き続きonnx-chainerパッケージにて利用可能です)

 

 

ChainerおよびCuPyの開発は、外部コントリビュータの開発成果を数多く取り入れています。PFNは今後も、サポート企業やOSSコミュニティと連携しながらChainerとCuPyの開発・普及を推進してまいります。

 

※1:http://docs.nvidia.com/deeplearning/sdk/mixed-precision-training/index.html

※2:Intel CPU上で深層学習の一般的な演算を高速に実行するためのNumPy互換のライブラリ   https://github.com/intel/ideep

※3:1枚の画像に対する処理時間をiDeep有効時・無効時で比較した結果。いずれの条件でもMKL(Intel Math Kernel Library)は有効。CPUは Intel Xeon(R) CPU E5-2623 v3 を使用。

 

オープンソースの深層学習フレームワークChainerについて

PFNが開発・提供するChainerは、Pythonベースのディープラーニング向けフレームワークとして、“Define-by-Run”の手法を通じてユーザーが簡単かつ直感的に複雑なニューラルネットワークを設計するための高い柔軟性とパフォーマンスを兼ね備えています。2015年6月にオープンソース化されたChainerは、最も普及しているディープラーニング向けフレームワークの1つとして、学術機関だけでなく、ディープラーニングがもたらすメリットを現実世界のアプリケーションや研究に活用するための柔軟なフレームワークを求める産業界の多くのユーザーに支持されています。

Chainerは、最新の深層学習研究の成果を迅速に取り入れ、ChainerMN(分散深層学習)/ChainerRL(強化学習)/ChainerCV(コンピュータ・ビジョン)などの追加パッケージ開発、Chainer開発パートナー企業のサポートなどを通して、各分野の研究者や実務者の最先端の研究・開発活動を支援していくことを目指しています。(http://chainer.org/

機械学習、深層学習を活用したファナックのAI新機能

ファナック株式会社(以下ファナック)は株式会社Preferred Networks(以下PFN)と共同で、機械 学習や深層学習をFA・ロボット・ロボマシンのそれぞれの商品に適用する新たなAI機能を開発致しました。

 

FA:AIサーボチューニング(機械学習)

高速加工,高精度加工或いは高品位加工の実現のため、機械学習を用いてサーボモータ制御のパ ラメータの高度な調整を簡単に実現する「AIサーボチューニング」機能群の開発を推進中です。今回この 「AIサーボチューニング」の第一弾として、「AIフィードフォワード」を開発致しました。

AIフィードフォワードは、機械特性をより正確に表現するために高次元化したモデルに基づくフィードフォ ワード制御です。このモデルは数多くのパラメータで表現されるため、従来のようなマニュアルでのパラメータ 調整は困難です。そこでパラメータ決定プロセスに機械学習を適用し、高度なフィードフォワード制御を実 現しました。

AIフィードフォワードによりサーボモータの加減速時の機械振動を抑制できるため、高品位加工の実現 に貢献致します。

出荷開始予定時期:2018年4月

 

ロボット:AIバラ積み取り出し(深層学習/FIELD systemアプリケーション)

バラ積み取出しにおける高確率での取り出し成功のため、深層学習によるワーク取り出し順序の決定 を行うスコアリング機能を、FIELD system上のアプリケーションとして開発致しました。

深層学習でロボットが自動的に取出し順番の学習を行うため、従来の人手で行っていた取り出し順番 の調整作業から解放され、バラ積み取出しシステムの立ち上げ時間の短縮を実現します。

また、本機能を用いることでバラ積み機能の教示熟練者でなければ難しかった高い取り出し成功率を実 現します。ワークの種類毎に学習モデルを作成することで、取り出し成功確率を上げることができます。

左:FIELD BASE Pro (NVIDIA社製GPU付) 右:バラ積みセンサ付ロボットシステム(デモ機)

出荷開始予定時期:2018年4月

 

ロボマシン:AI熱変位補正(機械学習)

昨年11月に販売を開始したワイヤカット放電加工機「ロボカット」用のAI熱変位補正機能に続く、ロ ボマシンのAI第2弾として、ロボドリル用AI熱変位補正機能を開発、販売を開始致しました。

AI 熱変位補正機能は、周囲温度や機械の動作中の発熱を温度センサで検出し、温度変化による 熱変位を機械学習技術を活用して予測し補正する機能です。温度センサを用いない従来機能と比較 して、加工精度が約40%改善しました。また、温度センサの配置や温度データの活用方法を工夫するこ とで、万一温度センサが故障した場合でも、加工を中断することなく最適な補正を継続します。

AI熱変位補正機能 第1弾 ロボカット (2017/11リリース)

AI熱変位補正機能 第2弾 ロボドリル

出荷開始時期:2018年3月(発売済)

 

株式会社Preferred Networks 代表取締役社長 最高経営責任者 西川徹

AIバラ積み取り出しは、2015年にファナック様と協業を開始した当初から着手していたプロジェクトであり、 ロボットに深層学習を応用した初めての製品として発表できることは大変意義深いと考えています。 これからも、より広い領域に深層学習を適応した賢いロボット、賢い工作機械の市場導入を加速させ、 モノづくりの現場に新しい価値を提供していきます。