Apple用語
2023年春、AppleはM2 Pro、M2 Maxを搭載したMacBookPro14/16とM2、M2 Proを搭載したMac miniを発売しました。
このMacBookProなどを調べると、「次世代のNeural Engineがプロフェッショナルの・・」という説明がでてきます。しかし、詳しい情報は書かれていません。それでも、iPhoneやiPadに搭載されているAシリーズのチップにも出てくるこの『Neural Engine』。
次世代の???何でしょうか・・この、「Neural Engine」って?
Neural Engineって何??
Neural Engineっていう言葉がわからなくて、もう先に進めない・・。
さて今回は、このNeural Engineについて、文系の方でも理解できるように説明します。
私ももともと文系女子。
今ではAppleコーナーで偉そうにウンチクたれてますよ。
Neural Engineとは
Appleにおいての「Neural Engine」とは、機械学習関連の処理に特化したSoC(システム・オン・チップ)の一部を指します。
機械学習?
SoC?
これだけで意味がわかる人、本当尊敬します。文系女子の筆者としては、全くわかりません・・。
では、一つ一つ噛み砕いて説明していきましょう。
SoC(システム・オン・チップ)は何でも揃ってるスモールタウン
システム・オン・チップとは、一つのチップの中に複数の機能を集約する技術をさします。
タブレットやスマホなど情報端末が小型化していく上で、昔はCPUやGPU(グラフィック処理)、メモリーなど様々な機能が別々のチップになっていたものを1つの集積回路上(チップ上)にのせて小型化していきました。
スマホやタブレットを動かす上で必要な機能を全部1つのチップ上に乗せました。ということです。
例えると昔の広々とした田舎町をイメージしてみてください。昔は、学校も病院もみんなの家も銀行もみんなバラバラ、それぞれの距離が離れていました。何かするのにも、あっちへ行って次はこっちに行って・・と広い空間をみんなが動き回っていました。移動手段も歩きとか馬車とか結構時間がかかっていました。
それを1つの整備された近代化したスモールタウン(小さな町)にしました。生活に必要な全ての機能をさほど広くない空間(コンパクト)におさめました。病院も学校も商店も、みんなの家も全てそこにある。全てはそこで完結する。狭い空間に全て納めたことで何をするにも短時間で出来るようになった。そして、その空間を大勢の人がものすごいスピードで動きまわっている。そんなイメージ。
そんな街の中にある1つの施設がNeural Engineだと思ってください。そして街の名前がM2チップなどです。この街にはCPUという施設もあるし、GPUという施設もあります。
そしてこのM2チップは5nmチップです。サイズは例えてもわかりにくいので無視して、とにかくとても小さいということ。
チップはより小さくなることで、情報を渡しあう距離が短かくなります。同じ仕事をするのでも、お互いがすごく離れているより近い距離にいる方が早く仕事が出来ます。仕事仲間が隣の部屋にいるより隣の席にいる方が作業は速い。つまりチップのサイズが小さくなればなるほど、処理速度は速くなるそんな感じです。
そして、使う労力も減るので、消費電力も少なくなります。エコなんです。
イメージできました?
Neural Engineは何の仕事をしてるの?
Neural Engineは機械学習の処理に特化したシステム。とありますが、どんな仕事をしているのでしょうか?
Neural EngineはiPhoneXから登場した
Neural Engineが登場したのは2017年発売のiPhoneXに搭載されたA11 Bionicからです。
この時、何が起こったか覚えていますか?
顔認識(Face ID)が登場し、ミー文字が登場しました。
そして、この時ポートレートモードなども誕生しています。被写体から背景を消したりすることも出来るアレです。人物と背景とをパターンで認識して背景の部分を消しています。
顔認識や画像認識などに利用する為に登場してきたのです。この技術はそのまま仮想現実、ARの技術にもつながっていきます。
そもそも機械学習って?
言葉としての機械学習とは。
AIの1つの要素技術を指します。(AI技術の中の1つであるということ。)
・データからルールやパターンを発見する方法である
・識別と予測が主な使用方法である
・分析の精度は100%ではないが、従来の手法より精度をあげられる可能性は高い
Neural Engineは何をもたらす?
そう、だからNeural Engineは機械学習の処理に特化したシステム。つまり顔認識とか画像処理とか、ARとかの識別や予測をするような処理に特化した作業をしているということです。
これは、カメラの技術、ナイトモードなどにも使われています。iPhone12Proなどでは逆光でとった写真の顔も明るく出来るようになりました。iPhone13で登場したシネマモードでは、被写体を素早く切り替えてピントを合わせてくれたり、最近では、カメラでテキスト認識したり、画像からタップして切り抜きをしたり、機械学習の技術はどんどんApple製品の使い心地を面白いものに進化させていってくれています。
各端末に搭載されているAppleシリコンのNeural Engineが進化することで、顔認識とかの速度も速くなりますし、カメラの補正機能も上がります。予測して演算してくれるということは、他にも多くの可能性を秘めている技術なのです。
次世代のNeural Engineは凄すぎる
一昔前のNeural Engineは8コアでした。それがいきなり倍の16コアになりました。その後はコア数は16コアで推移していますが、演算処理能力はどんどん進化しています。
A14チップが登場した時、Appleはいいました。「次世代の16コアNeural Engineは、1秒で11兆の演算を処理できます。そのため機械学習のパフォーマンスが2倍向上。機械学習アクセラレータにより、計算処理能力も10倍になりました。機械学習を使うアプリの性能が、まったく新しいレベルに到達します。」
いきなり2倍。そして計算処理能力10倍。凄すぎです。
そして、2023年現在、その技術は、Macなどにも活かされており、M2チップでは1秒で約15.8兆の演算が可能になっています。
2021年秋の新OSにはNeural Engineが大活躍!
2021年5月に発売されたiPadProのセンターフレームもNeural Engineによってもたらされました。iMac24のカメラやマイクでも活躍しています。そして、秋の各種OSのアップデートでは、さまざまな場面で機械学習による分析が使われてきます!
iPhone13ではNeural Engineが更に活躍してました!
2021年9月に発売されたiPhone13にはA15チップが搭載されてきました。そして実現した新機能「シネマーモード」後ろをぼかしてピントを合わせる場所を自動で判別してまるで映画のような動画撮影が出来ます。
またあなた好みに写真などを自動で調整してくれるフォトグラフスタイル。フィルタではなく、適切なエリアだけを調整するといった作業にも。Neural Engineの進化が止まりません!
Appleの説明は省略しすぎてわからない
Appleの説明
驚くほど高速なNeural Engineを搭載しているので、臨場感溢れる拡張現実の世界を楽しんだり、キーワードで写真を素早く検索したりすることができます。
Neural Engineは先進的なリアルタイムの機械学習のために作られているため、iPhoneの最新モデルでは、パターンを認識したり、予測したり、体験から学んだりすることができます。
最初、何のことかさっぱりわかりませんでした・・
Appleの説明(2) iPadProについての説明の中で
Appleが作ったNeural Engineが、デバイス上で機械学習をできるようにします。次世代のプロ向けアプリも安心して使えるでしょう。
上で勉強していただいた皆さんはAppleの説明が理解いただけたでしょうか?私は正直、それぞれ調べるまで何のことかさっぱりわかりませんでした。
2021年秋・・AppleはNeural Engineの説明はほぼ省きました(笑)
iPhone13Proの中にちょっとだけ
超高速 Neural Engine
シネマティックモードやスマートHDR4などの機能を動かすために、1秒間に最大15.8兆回の演算を実行
2022年秋・・AppleはNeural Engineの説明してません(笑)
iPhone14Proの中のA16チップの説明のなかに
Neural Engineが
毎秒約17兆回の演算処理
を実行、写真をピクセル単位で分析して最適化
知ってて当たり前扱い。
演算処理回数の増加で、性能UPしていることを匂わせるのみ(笑)
ちなみにNeural Engineの演算処理回数は、同時期のMacよりiPhone用チップの方が上です。
まとめ
Neural Engineとは、iPadやiPhone、M1以降のMacに搭載されているチップの中に組み込まれている1つのシステムで、機械学習(識別や予測をする)の処理に特化した仕事をしています。
Neural EngineはiPhoneXの顔認識や画像処理などのために登場してきました。その後も様々な機械学習を必要とする場面で活躍しています。
そして、Neural Engineはどんどん進化していっています。
2020年のiPhone12シリーズやiPadAir4に搭載されたA14Bionicでは、Neural Engineが16コアになり、1秒で11兆の演算を処理し、機械学習のパフォーマンスが2倍向上。機械学習アクセラレータにより、計算処理能力も10倍になりました。機械学習を使うアプリの性能が、まったく新しいレベルに到達します。
特にこのNeural EngineはiPhoneなどのカメラ性能に対して活きているように思われます。iPhone12シリーズ以降ではナイトモードが強化されています。
全てのカメラでナイトモードが使えるようになっており、自撮りなどでも活きてきます。背景と人物を判断して画像処理をする・・人物の顔が暗く写ったものを明るくする・・それらの処理はNeural Engineの技術向上でより向上するのです。
<記事を書くために勉強した感想>
何もかも凄すぎて・・・
パソコンを超えてます。これパソコンに載せたら、パソコンがすごい事になります。
AppleがMacに自社製チップをのせたいと言ってる意味までわかってしまいました。
◆追記-2020.11.25◆
2020年11月、AppleがMac用SoC、M1をMac3機種に搭載して発売しました。A14Bionic以上のスペックです。そして価格は据置・・。
パソコンが本当に凄いことになりました。まだまだ、Apple好きしか注目していないこのすごいことがこれからパソコン業界をどう変えていくのか・・楽しみで仕方ありません。
◆追記-2023.1.26◆
2023年2月発売モデルに搭載のM2Proでは、1秒で15.8兆の演算を処理するレベルにまでパフォーマンスが向上。
iPhoneのカメラをMacのフロントカメラに使えるようにしたり、画像からテキストを認識したり、画像から切り抜きをしたり・・。めちゃくちゃ便利です。
機械学習は更に進化を続けています。
○関連記事○
スポンサーサイト
AppleFUNラジオ(音声によるApple情報を配信中)
StandFMにて毎日音声にてApple関連情報を配信しています。週に1回ほど他の情報も配信しています。
2021年元旦から始めた音声配信によるAppleFUN(スタンドFM版)の番組です。ラジオっぽい番組づくりで、毎回Appleに関する情報を配信しています。Appleのサービスや製品のこと、好きなことなどを音声でお届けしています。