1. 思百科首页
  2. 思投稿

给图片去掉衣服的手机软件(国内存在多款类似“一键拖衣”软件)

给图片去掉衣服的手机软件(国内存在多款类似“一键拖衣”软件) 第2张曾经被唾弃封禁的AI“一键脱衣”再次引发关注。

近日,广州地铁上一位女性的“裸照”引发舆论讨论。事实上,照片中的女性是一名博主,原照片并无任何不妥之处,但却被有心之人用AI软件一键脱衣,在网络上进行传播。

在这位博主原图文的下方,已经有众多网友提醒博主被造谣的事实,催促其尽快报警,也有人热心地帮助其辟谣澄清。目前,该博主已回复称已在收集证据,会进行相关维权处理。

“这是我了解的AI作图流传最广的一次,如果能维权成功纠出源头,一定程度上可以预防和震慑懂得用这种科技手段的人。”有网友评论到。

无独有偶,另一起明星AI换脸事件也在近日引发关注。网红特效合成师洪某利用AI制作合成与女明星迪丽热巴亲吻的影片,将电视剧镜头中的男主角替换为自己,随后他称被女明星粉丝上门抓伤“破相”。

目前,该账号相关视频已不可见,同时其因违反社区规定,私信功能已被关闭。

有网友表示,如果将视频中的人随意换脸,恐怕将对当事人造成很大的困扰,难道掌握了这门技术就可以随意换脸吗?简直细思极恐。

目前,人工智能生成技术正在全球掀起一股技术浪潮,它可以迅速生成文案、图片和视频,但由此带来的虚假信息、隐私、版权等问题也值得关注。

“人工智能最令人恶心的应用”

AI“一键脱衣”其实并不新鲜,但最初更多引发关注的是用来“换脸”。明星刘昊然就曾在2021年8月发文打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。

说到AI“一键脱衣”,就不得不提到2019年6月国外一款名为DeepNude的应用,在发布仅几个小时后便因访问请求过大而宕机。它利用类似Deepfakes的深度学习伪造技术,会自动分析传入的照片并辨别出人物衣服的位置,然后通过特定的算法将衣服消除掉,创造出几可乱真的合成裸照。

随后这款软件也在国内外引起广泛的舆论批评,指责其侵犯隐私等。深度学习科学家吴恩达(Andrew Ng)当时还发文称,DeepNude是人工智能最令人恶心的应用之一。

后来,开发团队选择将该项目关闭。但后来这款件再次出现在了即时消息应用程序Telegram上,并已公开发布超10万张色情图片,且不包括私下分享传播的图片。

美国网络安全公司Sensity调查发现,这些图片有70%全部来自社交网络中的真实女性,甚至包括未成年人。也就是说,不少人日常在社交媒体中公开分享的自拍照,很可能会被人用来生成裸照。值得注意的是,这款软件只针对女性,如果上传一张男性照片,系统也会自动被替换成女性的身体。

面对外界指责,这款软件的开发者阿尔贝托公开此前回应称,自己不是偷窥狂,而是技术的爱好者,并不关心裸照。但这背后或也有利益驱使,该应用标准版免费,高级版售价为99 美元,但免费用户合成的照片会打上水印或只有局部裸露,用户支付1.28美元才可获得无水印图片,且使用权限仅限七天100张。

对于广受诟病的“一键脱衣”等灰色软件,国内各大应用商店基本都找不到这些软件的身影,但在一些网站上仍然存在很多“替代品”,甚至出现了DeepNude的破解版。

搜狐科技搜索发现,国内有游戏网站推出DeepNude软件合集,包括去衣破解版、中文破解版、手机版等多个版本提供下载,称可以免费试用,具有一键去衣、一键换衣、AI换脸等功能。

此外,通过关键词搜索还能在不少网站看到具备AI脱衣功能的软件,有的软件甚至直接注明AI算法一键去衣,还在产品说明页中有着详细的软件特色和亮点的介绍。

给图片去掉衣服的手机软件(国内存在多款类似“一键拖衣”软件) 第4张AI作恶谁来负责?

AI的发展解放了人,成为提高生产力的得力工具,但在这个过程中,随着技术应用的门槛的降低,更多能够使用技术的人并不总是正确地应用技术,AI换脸脱衣就是典型。

AI换脸可以追溯到国外一位用户名为deepfakes的程序员,其通过机器学习算法,将明星的脸与色情视频演员的脸进行交换,很多欧美知名女明星都曾中招。由于受害者的投诉和外界质疑,deepfakes账号被封杀,但这项技术的代码被开源放到GitHub,AI换脸技术由此被命名为“deepfakes”。

通过开源工具,随后更是衍生出了fakeapp、faceswap、deepfacelab、deepnude等一系列AI换脸、AI脱衣程序。尽管这些程序声明只涉及AI技术的研究,不会滥用,但技术应用门槛的降低,更多人可以参与进来,使得AI换脸、脱衣背后所涉及到的隐私、版权、伦理的恶性事件正在大量发生,每个人都可能成为AI作恶的受害者。

对于此次引发关注的女性照片被AI一键脱衣传播的事件,就有博主表示,在现今AI强大的算法下,时间、地点都对得上的情况下,伪造的谣言让普通人百口莫辩。同时,非法利用他人个人信息,编造涉性隐私的虚假信息并予以传播,是明显违法行为,情节严重的将构成犯罪,涉嫌侵犯当事人的肖像权、名誉权。

更有甚者,一些不法分子利用这些软件用于制造不雅照片和视频,在网络上传播和售卖,以此牟利或实施诈骗。此前就有报道称,AI换脸已经形成一条黑产链条,在某二手平台,有卖家提供明星换脸色情视频,甚至可以根据买家要求进行定制。

当前,随着人工智能生成技术浪潮的兴起,文本、图片和视频的生成越来越变得容易,并已已出现了很多虚假信息。特朗普穿着囚服、下乡再就业在街头拉黄包车,教皇换上羽绒服等都是AI生成的虚假图片,一度让许多人都信以为真。

在技术发展应用的过程中,无法保证使用技术的人会不会越界,借助AI移花接木、无中生有、肆意伪造,这可能距离人性只有一步之遥。想要摆脱AI造假的困境,这需要监管机构、技术公司和应用机构,乃至每一个人都需要承担一份责任。

此前,针对AI换脸脱衣等深度合成信息服务,我国多个部门联合发布《互联网信息服务深度合成管理规定》,要求深度合成服务提供者和应用商店从源头上对深度合成内容进行把关,禁止滥用,不得利用深度合成服务侵犯他人权益,并要求保护个人信息等。

但从现实来看,AI造假“灰产”仍需加强监管。如何保证技术向善,防止AI作恶,也是其在发展过程中需要探讨并制定行之有效措施的永恒话题。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 engola@qq.com 举报,一经查实,本站将立刻删除。文章链接:https://www.4baike.com/n/23935.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注