看似邪恶的技术有哪些?

刚刚阅读1回复0
kanwenda
kanwenda
  • 管理员
  • 注册排名1
  • 经验值602057
  • 级别管理员
  • 主题120411
  • 回复1
楼主

看似邪恶的技术有哪些?

神经网络和深度学习算法对图像识别和处理有显著影响,使我们的社交平台、搜索引擎、游戏机和认证机制更加聪明。

然而,他们会走上邪恶的道路吗?显然。面部识别应用FindFace就是最好的例子。该应用程序于今年年初诞生于俄罗斯。用户可以使用面部识别系统查看是否有人注册了VK.com(俄罗斯Facebook)。在不到一年的时间里,该应用程序在东欧获得了超过2亿用户。

因为连接了VK.com的图片数据库具有超强的应用识别能力。然而,许多人使用它不是为了社交网络,他们的目的最终偏离了。例如,莫斯科警察部门使用了FindFace技术,并将其植入首都的15万个监控探头。此外,许多人使用这种技术来捕捉强奸。

卡巴斯基实验室的专家分享了一种欺骗面部识别技术的方法,但如果你一直保持这样的姿势,那就太累了。

因此,在社交网络上自拍时要小心。毕竟,一旦照片上传,机器学习引擎总是会从“仓库”中吸收这些照片。我们不知道一张照片会引起什么样的风暴。

有哪些看起来很邪恶的技术

在马赛克后偷窥机器学习

马赛克是图片和视频中保护隐私最常用的技术。用马赛克覆盖后,人眼无法识别关键敏感信息。

然而,机器学习可以“透视”,它可以在心中完全无码。

德克萨斯和康奈尔科技大学的研发人员最近成功地培训了一套图像识别机器学习算法,可以很容易地完成现有的编码技术,并透彻地看到敏感信息。一旦技术落入坏人手中,后果就无法想象了。

据报道,经过训练,神经网络在识别面部、物体和笔迹方面可以达到90%的准确性。研发人员这样做不是为了做坏事。相反,他们应该提醒相关部门注意保护公民隐私。此外,专家表示,除了图片和视频中的马赛克,声音变化软件的模糊声音无法逃脱机器学习的掌心。

那么,如何确保我们的隐私不受侵犯呢?专家说,唯一的方法就是把这些带有明显模糊信息的图片放在黑匣子里,防止机器学习和接触。或者在模糊处理之前,可以在图片中添加其他层来混淆邪恶算法。

有哪些看起来很邪恶的技术

机器学习算法会模仿你的字迹

伪造别人的笔迹并不容易。即使他比《水浒传》中的圣手书生萧让强,他最终也被认出来了。然而,对于机器学习来说,没有必要日复一日地复制它。只要你看到几张你笔迹的照片,它很快就会被无缝地模仿。

伦敦大学的研究人员开发了一种名为My的研究人员 Text in Your Handwriting程序,只要看到你笔迹的片段,就能按照你的笔迹准确写出同样的字。

当然,这项技术并非无懈可击。写作后,需要技术人员进行微调。然而,即便如此,它也是模仿人类字迹最准确的方式。在一次比较测试中,只有40%的人识别出了他们的真墨宝。未来,随着技术的进步,这一比例将继续下降。

虽然该技术有许多积极的应用场景,但大多数人仍然担心坏人使用它来伪造法律协议、历史记录甚至伪造证据。想象一下,如果你的笔迹被机器学会了,第二天起床会承担巨额债务吗?

真假美猴王之困

除了模仿人的笔迹,机器人还能理解人的语言,产生非常自然的对话。未来,他们可能会控制在线客户服务、天气预报、新闻和餐厅预订。

然而,聊天机器人也会被“黑化”,Luka已经为我们做了一个示范。该公司专注于高端人工智能聊天机器人。他们的产品就像人一样。除了对话,他们还有活生生的“思维”。

最近,Luka推出了一款聊天机器人,模仿HBO热播剧《硅谷》中男主角的语气。该公司将英雄的语言输入神经网络进行深入分析。最后,聊天机器人可以学习他说话的方式和语气,甚至他说话时的节奏也会完全相同。

Luka之前也做过一个大胆的项目,让聊天机器人学习短信、社交网络对话等已经去世的信息。

虽然上述例子对社会无害,但一旦被坏人使用,我们可能更难预防。以最近令人讨厌的电话欺诈为例。如果电话的另一端是你亲戚的声音,你能去银行赚钱吗?

此外,更可怕的是,它不仅会学习你说过的话,还会根据你的说话方式自由联想。如果你有身体,你甚至可能没有必要存在。

0
回帖 返回影视

看似邪恶的技术有哪些? 期待您的回复!

取消
载入表情清单……
载入颜色清单……
插入网络图片

取消确定

图片上传中
编辑器信息
提示信息