«

苹果最“炸场”开源:SHARP模型1秒生成3D,碾压传统方法!

qimuai 发布于 阅读:35 AI新闻


苹果最“炸场”开源:SHARP模型1秒生成3D,碾压传统方法!

最新AI落地实操,点击了解:https://qimuai.cn/

这可能是苹果今年最“炸场”的开源。

不是新系统,也不是芯片,而是一个让你手机里任何照片“活过来”的AI模型。

想象一下:你拍了一张客厅的照片。一秒后,你就能在手机里“走进”这个客厅,左右环顾,看看沙发背后的挂画,甚至感受阳光从窗户投射进来的角度变化。

这不再是想像。苹果刚刚开源的 SHARP 模型,让这件事变成了“一键操作”。

它到底有多快?1秒。

从一张普通的2D照片,到一个具有真实物理比例、可以自由“穿梭”的3D场景,传统方法需要数分钟到数小时,而SHARP,只需要一次呼吸的时间。

1秒背后,是三个数量级的碾压

为什么这么快?秘密在于它用的核心技术:3D高斯泼溅

别被名字吓到。你可以把它理解成一种“魔法涂料”。

传统的3D建模,像是一个严谨的雕塑家,要一点一点雕刻出物体的轮廓和表面,费时费力。

而SHARP的思路完全不同。它把整个3D场景,看作是由无数个微小的、半透明的、带着颜色和光影的“彩色棉花糖”(专业点叫高斯球)堆砌而成。

你的2D照片就像是这个“棉花糖城堡”的一个快照。SHARP的神经网络,已经通过海量数据学会了空间和深度的通用规律。它看一眼你的快照,就能瞬间反推出构成整个城堡所需要的数百万个“棉花糖”应该放在哪里、是什么颜色、有多亮。

所以,它不需要环绕拍摄,不需要复杂计算。一次前馈,瞬间预测,1秒生成。

这就是降维打击。

平面到空间,我们终于“走”进了照片

过去几年,2D转3D工具不是没有。像 Tripo AI 这样的工具,已经能让用户在几分钟内得到一个可用的3D模型。

但SHARP带来了质的不同。

第一是极致的速度。 1秒和几分钟,体验上是“即时反应”和“需要等待”的天壤之别。这为实时应用打开了大门。

第二是真实的物理比例。 它重建的不是一个扭曲的模型,而是一个符合真实世界尺度的空间。这意味着一把虚拟的椅子,可以严丝合缝地放进你AR中的真实客厅。

第三是惊艳的光影。 那些“彩色棉花糖”自带光影信息,让生成的3D场景不是死板的模型,而是有氛围、有光线变化的空间。

你手里的静态照片,第一次有了深度、体积和空间感。你不再是旁观者,你成了可以“走入”其中的探索者。

开源SHARP,苹果在下一盘什么棋?

苹果这次大方地开源了全部代码和资源。

为什么?因为它瞄准的是下一个生态:空间计算

当Vision Pro等设备试图让我们生活在虚实融合的世界时,最大的瓶颈是什么?内容。尤其是高质量的3D内容。

靠自己生产,太慢太贵。SHARP提供了一种可能:将海量的、沉睡在每个人手机相册里的2D图像,瞬间激活为3D空间的燃料。

开发者们可以用它,快速为应用构建3D场景;用户或许很快就能把自己的全家福变成可漫步的回忆博物馆。

这不仅仅是一个模型的发布。这是在为即将到来的空间互联网,提前铺设了一条“内容高速路”。

技术爆炸的时代,真正的颠覆往往来自最基础的维度突破:把耗时“天”级的事情,变成“秒”级。

当你还在为一张好照片寻找滤镜时,下一代交互的钥匙,已经悄然放在了开源社区里。

所有领域都值得用AI重做一遍。本文作者承接各种AI智能体和AI全域营销自动化软件、工作流开发,了解加微信:qimugood(读者也可此微信一起交流)。

AI每日进展

文章目录


    扫描二维码,在手机上阅读