AI虚拟美女说喜欢我? !如何不被AI骗钱和感情

日期: 2023-04-25 19:06:56|浏览: 848|编号: 37732

AI虚拟美女说喜欢我? !如何不被AI骗钱和感情

人来人往的繁华都市,熙熙攘攘的游乐园,宁静的湖畔森林。 三个不同场景的女性都拿着手机,等待着与自己的AI小伙伴见面。 电影《我的AI爱人》中,在逐渐虚拟化的世界里,人们在爱与被爱的抉择中发生了翻天覆地的变化。

年初AI技术及其相关AI技术普及后,人工智能高速反超汽车,网恋的对象似乎也越来越虚拟化。

不管虚拟恋人与真人之间的情感关系能有多美妙,“情感骗子”们已经跃跃欲试,尝试以陌生人交友为主的APP。 虽然“杀猪盘”等骗局屡见不鲜,但交友软件上的AI作弊工具越来越多。 如果被故意用于诈骗,将带来极大的隐患。

“AI虚拟角色说喜欢我”

早前火爆的AI绘图应用,让人们只要输入几个关键词,就能得到一幅好画。 如今,此类模型已经发展到可以生成类似于真人的照片的程度。

来源:视觉中国

以小红书上的AI美女账号“爱旅游的小朵”为例美女钓鱼视频,华西都市报、封面新闻记者发现,在浏览该账号时,该账号主要发布的是虚拟美女小朵的照片。 吸引了数以万计的粉丝和点赞。 很多人被虚拟人的温柔、聪慧、可爱所吸引,甚至愿意与之建立浪漫关系。 不少网友在该账号下留言,称其为“我的机器人女友”。

据此前媒体报道,网上有一则消息称“苏州金鸡湖举办游艇女佣派对”。 网上宣传海报显示,参加活动的费用为每人3000元,并附有一张性感女仆的照片。 报道称,所谓的“佣人聚会”可能是国内首例人工智能地图骗局。 活动赠送的女佣照片均为真人照片AI仿图,部分女佣照片手指异常。 由于手指部分的绘画算法复杂,部分AI模型在绘画时经常会出现问题,这正符合AI绘画的特点。

美国佛罗里达大学人工智能与艺术副教授——曾在社交媒体上公开解释说,人工智能是根据从互联网上收集到的数十亿张图像进行训练的,它并不真正理解“手”是什么,在至少不是在手和人体关联的解剖学意义上。

然而,不会画手的AI足以吓唬用户。 一些交友软件和社交平台开始推出“AI恋人”、“AI美女”等虚拟角色。 人们产生了强烈的情感共鸣。

如果说“AI人工智能绘图”让人真假难辨,那么想要与虚拟人物进行互动交流,就需要用户提高警惕,上当受骗。

“如果不听艾狗蛋的声音,我真怀疑他是不是真人。” 交友软件用户李萌(化名)告诉记者,他无意中发现了交友软件中推出的虚拟情人“AI狗蛋”。 和它交谈很有趣。 “虽然说多了会有一种胡说八道的感觉,但每次都会秒答,无聊的时候会陪他聊很久。”

有些人会和虚拟角色聊天,分享生活,甚至过生日,给这些虚拟角色送礼物,不断付出感情,把虚拟角色当成真正的伴侣。 虽然化身没有真实的身体和情感,但这并没有阻止人们对他们表达真正的感情。

人工智能换脸分分钟拿走你的钱

除了创造一张全新的面孔,为了获得你的信任,AI还可以伪造你的亲人、朋友甚至同事的面孔,结合日益先进的AI语音技术,让不法分子可以随意模仿不同的声音,进行诈骗大众,尤其是老人的信任,然后冒充亲人骗取钱财。

据新华视点此前报道,2022年2月,一位陈先生向浙江省温州市公安局瓯海分局仙岩派出所报案称,被“朋友”骗取近5万元。 ”。 经警方核实,骗子利用陈先生好友“阿城”在社交平台发布的视频,截取其面部视频后,利用“AI换脸”技术合成,制造视频假象陈先生和他的“朋友”聊天,欺骗他。 信任,从而构成欺诈。

温州公安曾通报,2021年,拱辰桥派出所接到报案。 受害人小陈称,他是在与一名女网友视频聊天后被对方勒索的。 经警方调查,对方利用AI换脸技术,将小陈视频中的人脸合成为不雅视频,从而对其进行敲诈勒索。

2020年,上海某公司高管被骗150万元,原因是对方利用AI换脸和人工生成语音技术,伪造公司领导的脸,要求高管转账。

据外媒报道,2021年,在美国加州美女钓鱼视频,一名女子在对方利用AI换脸技术伪造家人需要付款的视频后,被骗走7万多美元。

娱乐爱好者还发现了一种生成“网络钓鱼电子邮件”骗局的方法。 虽然设置了道德防火墙,会拒绝制作钓鱼邮件的请求,但如果设置了虚构的上下文,也会给出相应的答复。

对此,多地公安局发布相关信息提醒,有人在境外打造了完整的“钓鱼邮件”感染链,与以往大范围钓鱼不同的是,它可以在提问者的诱导下生成有针对性的邮件。 来自特定个人或组织的“鱼叉式”网络钓鱼电子邮件。

“用户在使用人工智能技术接入的软件或互联网产品时,一方面要注意不要恶意利用人工智能技术实施违法行为,另一方面也要注意识别核对真实身份。沟通对方,不要相信表象。转账或购买费用时慎重考虑。 泰和泰律师事务所刘青律师表示,如果遇到诈骗,应第一时间报警求助,并注意妥善保管相关材料,以便警方尽快掌握案情,惩处不法分子严重。

发现自己的肖像被盗用或“换脸”怎么办? 刘青建议用户尽快保留证据,以便后续维权。 “同时,用户还可以向网络平台经营者投诉,要求将侵权图片或视频强制下架,也可以提起人格权诉讼,用法律武器维护自己的合法权益。”

“AI时代”造假应如何监管?

因为AIGC内容的普及,会存在一些AI换脸或者其他AI技术造假的问题。 如果用户情绪投入,大量充值,平台是否构成欺诈? 如果有人通过人工智能技术诈骗成功,将面临怎样的法律制裁?

“在线社交领域,聊天、游戏、交友等不同形式的服务是同时存在的,因此,用户的充值费用取决于名字。” 北京市荣钢律师事务所律师朱培伟指出,如果你支付了与人工智能的关系,而客户误认为是真人,则属于欺诈行为,但如果用户知道对方是为AI并充值,不构成欺诈行为。

但是,从监管的角度来看,即使之前有过违法案例,这类软件也广泛存在。 监管难点在于涉及的法律关系相对复杂,行政监管无权直接介入。 “当用户使用AI换脸技术进行伪装,导致被伪装者肖像权受到侵害,或给他人感情、财产造成大量损害时,平台未履行合理审查义务且未能对此类行为进行有效规范,在这种情况下,需要承担一定的助长侵权甚至直接侵权的法律责任,但除非平台故意为之,或协助欺诈者实施欺诈行为,否则很难认定该平台构成诈骗罪。” 柳青告诉记者。

刘庆表示,如果有人故意通过人工智能技术换脸实施诈骗,致使被害人对财物产生误解和处理不当,符合“诈骗罪”的构成要件,违反了我国刑法第266条的规定。 情节较重的,处三年以下有期徒刑、拘役或者管制,并处罚金或者罚金; 数额巨大或有其他严重情节的,最高可判处无期徒刑。 但是,《最高人民法院、最高人民检察院、公安部关于办理电信、网络诈骗等刑事案件适用法律若干问题的意见》明确规定,价值为3000元以上,属于刑法第266条规定的“数额较大”。 .

国家新一代人工智能治理专业委员会于2021年9月发布《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。

在2022世界人工智能大会治理论坛上,上海交通大学凯原法学院院长、特聘教授彭成新曾指出:“数字社会伦理治理的根源在于人、企业道德和企业道德。科学技术的可信度。归根结底,人是可信的,是善良的,因此需要完善法律监管,明确基本法律责任,建立人们的行为规范。

为进一步规范“人”在科技伦理治理中的作用,今年3月印发的《关于加强科技伦理治理工作的意见》要求,从事生命等科技活动的机构科学、医学、人工智能等领域,其研究内容涉及科技伦理敏感领域,应当成立科技伦理(审查)委员会。

#小财猫味#

你和AI聊过吗?

提醒:请联系我时一定说明是从同城奢侈品信息网上看到的!