Swift 和 Metal 中的 iOS Live 相机控制粒子

一则或许对你有用的小广告

欢迎加入小哈的星球 ,你将获得:专属的项目实战 / 1v1 提问 / Java 学习路线 / 学习打卡 / 每月赠书 / 社群讨论

  • 新项目:《从零手撸:仿小红书(微服务架构)》 正在持续爆肝中,基于 Spring Cloud Alibaba + Spring Boot 3.x + JDK 17...点击查看项目介绍 ;
  • 《从零手撸:前后端分离博客项目(全栈开发)》 2 期已完结,演示链接: http://116.62.199.48/ ;

截止目前, 星球 内专栏累计输出 63w+ 字,讲解图 2808+ 张,还在持续爆肝中.. 后续还会上新更多项目,目标是将 Java 领域典型的项目都整一波,如秒杀系统, 在线商城, IM 即时通讯,权限管理,Spring Cloud Alibaba 微服务等等,已有 2200+ 小伙伴加入学习 ,欢迎点击围观


我最新的 Swift 和 Metal 实验借鉴了我最近的帖子 从实时视频生成和过滤金属纹理 以及我关于基于 Metal GPU 的粒子系统 ParticleLab 的许多帖子。

ParticleCam 是一个小应用程序,它从设备的后置摄像头获取光度层并将其传递到 我的粒子着色器 中。在着色器代码中,我查看每个粒子的相邻像素的值,并在进行一些平均后调整该粒子的线性动量,使其移向相机馈送的较亮区域。

使用我的 iPad Air 2 的 Retina 显示屏,最终结果是一个空灵的、模糊的粒子系统,它反映了图像。它适用于与相当静态的背景形成对比的缓慢移动的对象。上面的视频是通过将我的 iPad 指向正在播放一位女士打太极拳视频的屏幕而创建的。屏幕录制是使用 QuickTime 完成的,遗憾的是似乎在压缩时失去了一点空灵的品质。

ParticleCam 的源代码可在 我的 GitHub 存储库 中找到。我只在我的 iPad Air 2 上使用 Xcode 7.0 beta 5 和 iOS 9 beta 5 测试过它。


相关文章