Apple のワールドワイド デベロッパー カンファレンス (WWDC) は今週、新しい MacBook Air の発表で始まり、macOS 13 Ventura、iOS 16、iPadOS 16、watchOS 9 が初めて紹介されました。これは、開発者を興奮させ、今年後半のソフトウェア リリースに備えることを目的とした機能とテクノロジーの膨大な内容です。
しかし、写真家はどうでしょうか?コンピュテーショナル フォトグラフィーを利用した改善など、写真関連の変更がいくつか予定されています。このコラムの関心は AI と ML テクノロジーであるため、ここでは主にそこに焦点を当てます。
現在、オペレーティング システムのリリースは開発者向けのベータ版としてのみ提供されており、フル バージョンは 9 月か 10 月にリリースされる可能性が高いことに注意してください。そのため、発表された一部の機能がそれまでに延期またはキャンセルされる可能性があります。また、Apple は通常、特に新しい iPhone モデルのハードウェア機能に関するいくつかの詳細を予備として保存します。
そうは言っても、私にとって印象に残ったことは次のとおりです。
M2 ベースの MacBook Air と MacBook Pro
写真家の悪名高い機材獲得症候群は、カメラ本体やレンズに限定されません。再設計された MacBook Air は、特に新しい M2 プロセッサを搭載しているという点で、注目すべきハードウェアの発表でした。
新しい MacBook Air は Apple の最新の M2 チップを使用しています。アップル 関連:Apple の ProRAW フォーマットの利点をテストする
つまり、M2 は M1 よりも高速で優れています。M1 自体は、Apple が独自のシリコンに移行する前に使用していた Intel ベースのプロセッサよりも大幅に改善されました。写真家にとって興味深いいくつかの優れた仕様は次のとおりです。 メモリ帯域幅は 100 GB/秒で、M1 よりも 50 パーセント増加しており、全体的に操作が高速化されます。 (M シリーズ アーキテクチャは、個別のチップセットではなく、CPU と GPU の動作に統合されたメモリ プールを使用し、パフォーマンスを向上させます。M2 では最大 24 GB のメモリが利用可能です。)
M2 の 200 億個のトランジスタには、M1 の寸法よりも多くのスペースが必要です。アップル また、写真家やビデオグラファーは、M1 の 8 GPU コアと比較して 10 GPU コア、高帯域幅 8K H.264 および HEVC ビデオ デコードをサポートする改良されたオンボード メディア エンジン、複数の 8K および 4K ビデオ ストリームの再生を可能にする ProRes ビデオ エンジン、および改良された画像ノイズ低減を提供する新しい画像信号プロセッサ (ISP) による改善を実感することになります。
つまり、M2 はより多くの電力を供給しながら、効率性が高く、バッテリーにも優しいということです。 (M1 Max プロセッサーを搭載した 2021 MacBook Pro のバッテリー寿命は、2019 Intel ベースのモデルと比較すると信じられないほど長く、過去 6 か月でファンが回転するのを聞いたのはほんの数回です。)
MacBook Air のデザインは、新しい MacBook Pro の平らなプロファイルを反映しており、登場以来 Air を特徴づけていた独特のくさび形は廃止され、2 つの Thunderbolt ポートと MagSafe 充電ポートが含まれています。画面は 13.6 インチの Liquid Retina ディスプレイになり、10 億色をサポートし、最大 500 ニトの明るさまで対応できます。
MacBook Air は、前モデルと同じくらいスリムで、4 つのカラーからお選びいただけます。アップル Apple はまた、同じ古いデザインの M2 プロセッサを搭載した 13 インチ MacBook Pro も発表しました。これには TouchBar は搭載されていますが、MagSafe コネクタは搭載されていません。新しい MacBook Air に対するこのモデルのわずかな利点は、アクティブ冷却用のファンが組み込まれていることです。これにより、より長時間の持続的な処理が可能になります。
M2 MacBook Airの価格は1199ドルから、M2 MacBook Proの価格は1299ドルからです。 M1 搭載 MacBook Air は、999 ドルのエントリーレベル オプションとして引き続きご利用いただけます。
継続カメラ
次に興味があるのは、連続カメラ機能です。継続性とは、Mac 上のテキストをコピーして iPad に貼り付けるなど、近くの Apple デバイス間で情報を受け渡すことができるテクノロジーを指します。 Continuity Camera を使用すると、iPhone 11 以降をウェブカメラとして使用できます。
携帯電話をウェブカメラとして使用することは新しいことではありません。私はこれのために Reincubate Camo ソフトウェアを長い間使用してきました (そして完全に開示すると、それらのためにいくつかの記事を書きました)。 Apple は、フレーム内の被写体を追跡する Center Stage テクノロジーと、背景を人工的に柔らかくするポートレート モードを提供します。また、被写体 (あなた) の露出を高め、背景を暗くしてリング ライトのような外部照明をシミュレートするスタジオ ライト設定も備えています。 Apple は、機械学習を使用して対象を特定することでこれらのことを行っています。
しかし、より興味深いのは、新しいデスクビューモードです。iPhone の超広角カメラとおそらく何らかの AI テクノロジーを使用して、極端な歪み補正を適用し、頭上に取り付けられた下向きのカメラを通して机の上のものを見ているかのように表示します。ビデオ通話の他の参加者には、あなたが別のフレームに映っているのが見えますが、これはおそらく通常の広角カメラで同時に撮影されたものと思われます。
Continuity Camera は、iPhone のカメラを Web カメラとして使用して、デスクトップのトップダウン ビューを表示します。アップル 写真コンテンツに基づいて行動する
いくつかの新機能は、画像内のコンテンツを識別してそれに基づいて動作するソフトウェアの機能を利用しています。
iOS 16 の iPhone には、現在の時刻の書体を変更するオプションを備えた設定可能なロック画面が表示され、情報を一目で確認できるウィジェットが含まれます。誰かのポートレート モードの写真など、壁紙画像に深度情報が含まれている場合、画面は自動的に時間を背景に配置します (昨年の watchOS 8 アップデートで導入された機能)。また、ロック画面画像として適した写真をライブラリから提案することもできます。
写真内の被写体を認識することで、新しい iOS 16 ロック画面は時間を隠して奥行きをシミュレートできます。アップル 被写体認識のもう 1 つの賢い点は、背景から被写体を持ち上げる機能です。件名を長押しすると、機械学習を使用して自動的に識別および抽出され、それをメッセージなどの別のアプリにドラッグまたはコピーできます。
タップして件名を選択し、別のアプリにドラッグします。アップル 以前の iOS および iPadOS アップデートでは、画像内に表示される任意のテキストを選択できる Live Text が追加されました。次のバージョンでは、ビデオの任意のフレームを一時停止して、テキストを操作することもできます。開発者は、通貨の変換やテキストの翻訳などを行うためのクイック アクションを追加できるようになります。
写真アプリの改善
Apple の写真アプリは常に奇妙なスペースを占めてきました。各プラットフォームで画像を保存および整理するためのデフォルトの場所ですが、複雑さを求めていない平均的なユーザーを拒否しないように、十分な広範な魅力が必要です。多くの写真家が Lightroom や Capture One などのアプリを利用しているのではないかと思いますが、私たちは依然として iPhone 写真の門番として Photos に依存しています。
次のアップデートで、Apple は iCloud 共有フォト ライブラリを導入します。これは、iCloud ファミリー プランを持つユーザーが別個のフォト ライブラリを最大 6 人のメンバーと共有できる方法です。各人がすべての写真を共有して受け取ることができるため、個人の個人ライブラリを侵害することなく、家族のイベントの写真を 1 つのライブラリにまとめることができます。
iCloud 共有ライブラリは、家族全員から写真を収集します。アップル ライブラリに手動で入力することも、人物認識を使用して 2 人以上が一緒に写っている写真を指定することもできます。または、家族が一緒にいるときに写真が自動的に共有ライブラリに送信されるように設定することもできます。
その他の写真の改善点には、写真アプリで重複を検出する方法、写真間またはバッチで調整をコピーして貼り付ける機能、編集中のより詳細な元に戻すおよびやり直しのオプションが含まれます。
iPad Pro のリファレンス モード
最後に言及したいのはコンピューテーショナル フォトグラフィーとは関係ありませんが、それでも素晴らしいものです。現在、macOS のサイドカー機能を使用して iPad を追加ディスプレイとして使用できます。これは、より多くの画面領域が必要な場合に最適です。
macOS Ventura および iPadOS 16 では、iPad Pro をリファレンス モニターとして設定して、編集中に色の一貫した写真やビデオを表示できます。 Apple の脚注によると、問題は、豪華な Liquid Retina XDR ディスプレイを搭載した 12.9 インチ iPad Pro のみが動作し、Mac には M1 または M2 プロセッサが搭載されている必要があるということです。 (私はそこに「ゴージャス」と追加しました。脚注にはありませんでした。)
12.9 インチ M1 iPad Pro を色の正確なリファレンス モニターとして使用します。アップル 画面領域に関して言えば、iPadOS 16 では、ついに (ついに!) 1 台の外部ディスプレイ (最大 6K 解像度) を接続して、画像をミラーリングするだけでなく、iPad デスクトップを拡張するために使用できるようになりました。繰り返しになりますが、これは M1 プロセッサを搭載したモデルに限定されており、現在は iPad Pro と iPad Air が含まれます。ただし、iPad で多くの仕事や写真編集を行うタイプの場合は、外部ディスプレイのサポートにより余裕が生まれます。
外部ディスプレイを接続して iPad Pro のデスクトップを拡張します。アップル Stage Manager と呼ばれる新機能は、アプリを全画面モードから解放し、iPad と外部ディスプレイ上で最大 4 つのアプリ ウィンドウを同時に表示できるようにします。同じ iPad 画面上で Lightroom や Photoshop などのアプリを Split View で並べて実行することに制約を感じたことがある場合は、Stage Manager を使用すると問題が解決されるはずです。もう 1 つの機能であるディスプレイ ズームを使用すると、ピクセル密度を高めて、M1 ベースの iPad の画面により多くの情報を表示できます。
今後も追加予定
私は主に写真家に影響を与える機能に焦点を当ててきましたが、秋には他にもたくさんの新機能が登場します。少なくとも、iPad にはついに独自の天気アプリが搭載され、Mac には完全な時計アプリが搭載されました。大したことではないように聞こえるかもしれませんが、車の中で身を寄せ合って、日没前にドラマチックな雲を撮影できるほど雨が弱まるかどうかを考えているときや、編集に夢中になっている間に適切な時間に就寝するようタイマーで知らせてもらいたいときに役に立ちます。