玛丽莲·梦露曾言:“妆容应该让你感到自由,而非束缚。”然而在算法定义的美丽新世界里,这种自由正面临前所未有的挑战。
指尖轻触,瞬间变装。AI试妆技术正以革命性的姿态席卷整个美妆行业,允诺一个无需昂贵化妆品、无需专业技巧的美丽新世界。从林赛·斯科特这样的美妆科技先驱到中国的“魔镜”试妆应用,虚拟妆效生成技术已经能够在一秒内,为任何面孔涂上最新潮的口红色号,画上最精致的眼线。
但在这数字世界美丽的狂欢背后,一个尖锐的问题浮出水面,一个不得不面对的尖锐问题便得以凸显,我们是在拥抱美的自由化,还是悄然走进了算法精心设计的审美牢笼?
AI试妆技术的核心是基于数百万张面部图像训练出来的深度算法。而这些算法通过学习“美丽”的特征,逐渐形成了自己对美的定义。问题恰恰在于此,究竟是谁在定义这些算法学习的“美丽”标准?
据当下的研究已然明确,大多数美妆的AI系统都存在着明显的偏见倾向,特别是大模型还无法去除幻觉的当下。它们倾向于提亮肤色、放大双眼、缩小鼻翼、削尖下巴,已然形成了规范化的暴力美学范式,它会自动甚至不知不觉之中套用一套高度统一化的美丽标准。据华东师范大学2022年的一项研究发现,78%的试妆APP会自动将用户肤色提亮1-3个度,无论用户本身的肤色特征如何。
这种算法偏见不仅强化了单一审美,更在全球范围内推广了一种算法强加的特定的美丽标准。当印度用户被自动美白,东亚用户被加上大眼特效,拉丁裔用户被柔化面部特征时,AI正在无声地实施一场数字殖民。
再者,当用户欣然上传自拍体验虚拟试妆时,很少有人意识到,他们正在交出的是什么,那可是不仅仅你的妆容,更有你的隐私,还有更可怕的是,某些平台还会把你的隐私当作牟利的产品出售。面部生物特征数据,是世界上最敏感的个人信息之一,而美妆APP正是收集这类数据的完美而且免费的工具。
网络安全专家凯拉·琼斯就曾在日前警告道:“面部数据是新的石油,而这些试妆应用正是最有效的油井。”2023年的一项调查显示,超过60%的美妆类APP会在用户不知情的情况下共享或出售面部数据给第三方。
更令人担忧的是,许多试妆应用的服务条款中,就隐藏着令人不安的用户条款。用户上传照片后,实际上放弃了对面部图像乃至自己肖像权的所有权,允许公司无限期保存、使用甚至修改这些图像。
当AI比你自己更懂“如何让你更美”,我们是否会丧失审美的自主权?这个问题触及了AI美妆革命的核心矛盾。
在传统美妆中,镜子和化妆品是工具,人才是主导者。而在AI试妆中,算法成为了主导者,人反而成了被塑造的对象。我们开始依赖算法告诉我们什么颜色适合自己,什么风格最时髦,什么妆容最能吸引目光。可是这种高度依赖过后,我们自主权便会丧失殆尽。
心理学家玛莎·李维特指出:“当外部标准变得如此明确和权威时,我们内在的审美直觉就会逐渐萎缩。就像过度依赖GPS导致人类空间导航能力下降一样,过度依赖AI美妆建议可能导致我们失去感知和创造美的能力。”如此后果,我们想想都可怕,真到AI美妆一统天下之时,恐怕不仅仅是当下的美颜滤镜所统一的虚拟世界了,真实世界也一样被暴力美学所整齐划一地规范了。
诚然,技术是人类发明的,技术本身亦可异化人类,但是技术本身并非注定是审美的牢笼,关键在于如何设计和使用这些技术。一些前卫的美妆科技公司已经开始探索更加多元和包容的方向。比如Glossier的AI试妆系统允许用户自定义审美参数,而不是强行套用统一标准。Fenty Beauty的虚拟试妆技术则专门针对深色肤色进行了优化,拒绝“一刀切”的美白倾向。
欧盟最新出台的《人工智能法案》也将情感识别和生物特征分类系统列为高风险AI,要求其符合严格的透明度标准,这为监管美妆AI的偏见提供了法律基础。真正的美妆科技革命不应该是关于替代人类选择,而是关于扩展美丽想像空间的可能性。AI可以成为探索美的强大工具,而不是定义美的绝对权威。
在不久的未来,我们需要的是能够推荐非常规妆容的AI,而不仅仅是强化主流审美的AI;是能够欣赏多样性的AI,而不是强制同质化的AI;是增强用户创意而不是取代用户决策的AI。在这些方面,用户的教育同样至关重要。美妆品牌有责任明确告知用户,他们的数据如何被使用,并提供真正的选择权,当然也要包括拒绝算法建议的权利。
科幻作家特德·姜曾警示说:“技术最危险的形式是那些看起来完美符合我们愿望的形式。”AI一键换妆恰恰如此,它完美地承诺了无障碍的美丽,却暗中定义了什么是美丽,以及谁配得上美丽。