Swift 和 Metal 中的 iOS Live 相机控制粒子
💡一则或许对你有用的小广告
欢迎加入小哈的星球 ,你将获得:专属的项目实战 / 1v1 提问 / Java 学习路线 / 学习打卡 / 每月赠书 / 社群讨论
- 新项目:《从零手撸:仿小红书(微服务架构)》 正在持续爆肝中,基于
Spring Cloud Alibaba + Spring Boot 3.x + JDK 17...
,点击查看项目介绍 ;- 《从零手撸:前后端分离博客项目(全栈开发)》 2 期已完结,演示链接: http://116.62.199.48/ ;
截止目前, 星球 内专栏累计输出 82w+ 字,讲解图 3441+ 张,还在持续爆肝中.. 后续还会上新更多项目,目标是将 Java 领域典型的项目都整一波,如秒杀系统, 在线商城, IM 即时通讯,权限管理,Spring Cloud Alibaba 微服务等等,已有 2800+ 小伙伴加入学习 ,欢迎点击围观
我最新的 Swift 和
Metal
实验借鉴了我最近的帖子
从实时视频生成和过滤金属纹理
以及我关于基于 Metal GPU 的粒子系统
ParticleLab
的许多帖子。
ParticleCam
是一个小应用程序,它从设备的后置摄像头获取光度层并将其传递到
我的粒子着色器
中。在着色器代码中,我查看每个粒子的相邻像素的值,并在进行一些平均后调整该粒子的线性动量,使其移向相机馈送的较亮区域。
使用我的 iPad Air 2 的 Retina 显示屏,最终结果是一个空灵的、模糊的粒子系统,它反映了图像。它适用于与相当静态的背景形成对比的缓慢移动的对象。上面的视频是通过将我的 iPad 指向正在播放一位女士打太极拳视频的屏幕而创建的。屏幕录制是使用 QuickTime 完成的,遗憾的是似乎在压缩时失去了一点空灵的品质。
ParticleCam 的源代码可在
我的 GitHub 存储库
中找到。我只在我的 iPad Air 2 上使用 Xcode 7.0 beta 5 和 iOS 9 beta 5 测试过它。