二手iPhone的猫腻,美版iPhone你敢用吗?

二手 iPhone 市场一直都比较火热,丝毫不逊色于全新机的市场,主要因为近些年的 iPhone 新机定价过于昂贵,很多用户只能求其次选择价格更低的二手 iPhone 。
国内全新机千篇一律,但二手机各不相同,成色、版本甚至是功能都有差异。
在国内,选择二手机的时候,多数人只愿意选择国行机器,即机型为 CH/A 结尾的手机,而不愿意选择 LL/A 结尾的美版手机,即使后者更加便宜一点,你们知道这是为什么吗?
反正第一反应就是,国行肯定差不了,但是要说美版哪里不好,又不知道从何说起,反正内心一致认定国行要比美版好,毕竟贵有贵的道理,你们是不是这样想的?
但硬说美版 iPhone 辣鸡那是不对的,美版二手 iPhone 当中也有很多不错的手机,只不过相对国行比较乱、比较复杂一点,其中有包括版本、渠道等因素。
首先说说美版手机的来源吧!美国的手机怎么会被安排到国内来了呢?这或许是一个比较曲折和隐蔽的故事。
不知道大家有没有听说关于‘统货’这个词,这个词大概意思就是给商家一批质量层次不齐的货物,商家估算一个价格买入,如果里面好东西居多的话,那么你统货就赚大了,如果里面的手机质量多数是差的,那么能保本就不错了。
其实,每个生产行业几乎都有这种‘统货’交易行为,专门用来处理一些不良生产品。
/ 图片来自一号电讯
当美国的二手 iPhone 被收集来到香港之后,就会被香港的统货公司买下来,再对外进行销售。
统货卖手机不是论台的,而是论箱的,数量不定,但是会分成 ABCD 四个等级,里面会有一些进水机、无指纹机、无信号、无 WIFI 等机器,当然,也有好的机器。
一般都是一个人拿好几箱,数量基本都在100台以上才算得上统货。说是统货,其实也存在着竞标成分,每个装有 iPhone 的箱子前面都会有一个投票箱,在上面写上你的价格,谁出的价格高,货就归谁,很现实。
华强北就有很多这种前去香港统货的商家,拿回来之后就会对手机的成色、品质进行挑选,按照充新机、靓机、小花机、大花机、报废等标签进行分类,最后再商场里进行售卖,来自全国各地甚至其他东南亚国家的人都会过来挑选。
不过,话说回来了,这些货想从香港那边运过来,还必须要依赖水客的操作,什么是水客?就是我们平时经常看见深圳海关搜查到全身上下绑有 iPhone 的人,他们就像一个人肉背包一样,帮助客户把手机从香港运到大陆境内。
/ 题材为 iPhone 水客的电影《过春天》
如上所说,美版机器的来源渠道本身就很曲折,这种统货形式过来的水货机器,其中原版机的数量并不多,很多国内市场上售卖的美版二手 iPhone 都是有过小修小搞的,虽然使用起来问题不大。
这一点,就是很多人不喜欢美版的一点重要原因。
此外,在美国其实和国内一样,都有所谓的定制机,只能使用对应运营商的手机卡,这种手机流入到国内之后称之为有锁机;而另外一种公开版的机器,流入到国内之后,叫做无锁机。
无锁机倒是和国行机器没有什么差别,但是有锁机就显得比较头痛了,如果没有卡贴这个东西的辅助,有锁机在国内只能算个 MP4 ,连连 WIFI 、玩玩游戏还可以,但唯独不能打电话发短信。
所以呢,万一商家不安好心,在你不知情的情况下,给你安排了一台有锁机器,一旦升级了系统,你就会发现其中猫腻了。
第三点,所谓美版机器其实是个代名词,它不一定是真正的美版机器,而是所有水货的统称,也是一些瑕疵机的统称。
/ 还没有配备卡槽的翻新 iPhone
比如有人搞到了一些欧版的机器、俄罗斯版的机器,你要是跟人说是欧版、俄版,那估计是没人敢要了,所以商家一般都会统称它叫做美版机器,毕竟人们的观念里,苹果总部在美国,美国来的苹果不会差。
还有一些有瑕疵的 iPhone 也会被商家叫做美版,比如一台有问题的国行 iPhone,被维修或者被翻新后,商家将其包装成美版手机的身份,即使后面出了一些问题,也会以美版手机容易出问题为由搪塞处理,毕竟没有国行贵,客户也只能安慰自己便宜没好货了。
就是因为以上种种原因,美版二手 iPhone 才会让人听起来感觉很不靠谱。
但话说回来,咆哥这里也没有以偏概全的意思,优质的美版其实和国行是一样的,毕竟都是富士康生产的,还能分个三六九等不成?所以,买美版或者水货二手 iPhone 时,一定要找靠谱的人、靠谱的渠道哟!

小芦出售的所有二手良品,都经过本人细心检查和检测,有一说一,请放心!

勒索病毒(永恒之蓝)变种“WannaRen”大规模传播,目前多数杀毒软件暂时无法拦截

大家还记得“永恒之蓝”吗?(抽空写一篇永恒之蓝的专题如何?)

这次出现的是它的变种,基于数据了解,互联网上出现了一种新型的勒索软件“ WannaRen”病毒,它的攻击行为类似于此前臭名昭著的“ WannaCry”病毒。一旦被入侵它几乎可以加密Windows系统中的所有文件,这些加密文件的后缀是“ .WannaRen”。

据悉,目前“WannaRen”病毒存在两个变体,一个通过文字,另一个通过图片发送勒索信息,由于这次勒索比特币用的钱包地址与2017年的“ WannaCry”相同,基本可以确定这是同一黑客组织所为。在2017年,“ WannaCry”勒索软件至少感染了150个国家和地区的300000台计算机,造成80亿美元的经济损失,影响了当时金融,能源和医疗等多个行业,并严重威胁了社会和民生安全。

 

对此专家表示,目前此类勒索病毒非常普遍,每周都会造成成千上万用户无法访问其文件。像“WannaRen”这样的病毒,其目的很简单,攻击者试图使受害者的最重要文件无法访问,以便可以勒索用户以勒索赎金。

遭到攻击后,如果受害者付款,黑客将发送一个特殊的唯一密钥,使受害者能够从其文件中解除数据加密。由于勒索软件病毒通常不会对系统造成任何其他危害,因此黑客不会利用其他任何手段来勒索用户,所以如果黑客锁定的文件对于用户的价值不大,那么用户一般会选择忽视向攻击支付赎金。在此次病毒的大面积传播中,黑客要求受害者至少支付0.05比特币(约合2500元人民币)赎金以获取解密密钥。

目前,由于Windows 7具有免疫功能,因此弹出窗口没有受到损坏(请注意win7也是要打补丁的),但Windows 10的用户已经确认有受到损坏。还有一些用户报告表示,在系统安装了微软的“永恒之蓝”补丁后,系统仍然会被感染。该病毒的传播不是利用“永恒之蓝”弱点,目前大多数防病毒软件都无法拦截它。因此,建议用户近期不要随便下载运行BT下载器、Office激活工具,同时将系统打好补丁做好常规保护。

全球诈骗案件已屡次得逞之AI软件克隆你的声音

就在不久前于旧金山结束的RSA大会上,一家名为Pindrop的专门检测语音诈骗的初创公司再次向业内发出警告:网络诈骗份子已经开始借助AI软件克隆声音进行诈骗了!

科技从来都是具有两面性的,中国古代的智者早已阐述过。

知识说明:

AI是什么?

人工智能(英語:Artificial Intelligence,縮寫為AI)亦稱智械、機器智能,指由人製造出來的機器所表現出來的智能。通常人工智能是指透過普通電腦程式來呈現人類智能的技術。該詞也指出研究這樣的智能系統是否能夠實現,以及如何實現。同時,通過醫學、神經科學、機器人學及統計學等的進步,常態預測則認為人類的無數職業也逐漸被其取代。

(Pindrop的CEO(右)和CTO(左),图片来自网络)

Pindrop的CEO Vijay Balasubramaniyan表示:“Pindrop在过去一年中调查了大约十二起类似的案件,都是欺诈者使用AI软件“克隆”某人的声音以进行诈骗。同时,我们还看到了Deepfake音频作为针对公众人物的工具出现。如果你是家公司的CEO或者你在YouTube上有很多视频,骗子就极有可能用它来合成你的声音。”

并且,虽然Pindrop只看到了少数这样的案件,但涉案金额很高。Pindrop估算涉及的诈骗金额可能高达1700万美元。

(图片来自网络)

来自硅谷的警告消息又一次将AI的安全性问题带到了舆论的风口浪尖。毫无疑问,自从AI成为全球技术发展的主流以来,DeepFake的问题就一直是人们关心的重点。而今天我们要讨论的AI语音合成的问题,则可能比人脸识别更加危险。

AI声音合成,一面“天使”一面“魔鬼”

语音合成技术现在已经非常成熟了。例如高德导航里的各种明星语音包,“林志玲为您导航祝您好心情”、“郭德纲前方有落石车碎人心碎”、“你镇定一下罗永浩要开始导航了”,基本上能够达到以假乱真的效果。大部分时候用户也分不出来到底是明星自己录的,还是合成的语音。当然这种场景中,语音合成只是为了提升用户体验做的一个小功能。不仅没有对用户造成损失,反而让用户开车的时候拥有更好的体验。

(高德地图的明星导航语音包,图片来自网络)

但是下面这个故事就不是这样了。2018年Charlie Warzel,Buzzfeed的科技记者,受了前密西根大学社交媒体责任中心CTO Aviv Ovadya言论的影响,做了一件想想都非常后怕的事情。他使用AI合成软件模仿了自己的声音,然后打电话给他妈妈,结果他妈妈愣是没听出来。世界上最熟悉你自己声音的人是谁?可能不是你自己,因为你自己听到的声音和别人听到的是有区别的。最熟悉你声音肯定是你的母亲。

(图片来自网络)

既然身边最熟悉的人都被这样“伪装”骗了,那只要使用这种软件不就拥有了“变身”的超能力了吗?

事实上,利用AI语音合成冒充熟人进行电信诈骗的案例这几年时常发生,并且涉及金额都非常的巨大。

根据《华尔街日报》2019年报道,英国某能源公司高管在一个小时之内通过匈牙利供应商向一诈骗犯转账24万美元,约175万元人民币,仅仅是因为诈骗犯通过AI技术仿造了其母公司CEO的声音。该高管表示,在整个通话过程中,老板轻微的德国口音都展现得淋漓尽致,该高管完全没有任何的怀疑,直到被要求再次转账时才发觉了事件异常。

在报案调查后,警方只能发现该笔转账流动到了墨西哥等地区,但是具体嫌疑犯的身份始终无法确定。这个案件带来的损失目前只能由保险公司承担。这位受害者后来在一封电子邮件中写道,虽然“老板”的要求相当奇怪,但声音如此逼真,他觉得自己别无选择,只能服从。

美国网络安全公司Symantec的研究人员表示,他们发现至少有三起公司高管的声音被人模仿以用于电信诈骗。虽然Symantec拒绝透露这些受害公司的名称,也不愿透露上述英国能源公司是否是其中之一,但它指出,其中一起案件的损失总计达数百万美元。

(Symabtec公司大楼,图片来自网络)

虽然有种种风险,但技术的发展一点也没有慢下来。目前,许多硅谷巨头和人工智能初创企业都在开发这种语音合成软件,用以模仿人的声音节奏和语调,并被用来制作令人信服的演讲。

(Lyrebird 官网)

几个月前,Resemble团队发布了一个名为Resemblyzer的开源工具,该工具使用人工智能和机器学习来通过获取语音样本的高级表示并预测它们是真实的还是生成的来检测深度伪造。而在AI语音合成届早已成名已久的Lyrebird,其开发出的AI合成软件更是可以在合成语音中模拟出说话人的感情。

AI技术被滥用,它的工作原理是什么?

无数的研究表明,重现人们讲话的韵律只需要一个小的数据集。像Resemble和Lyrebird这样的商业系统仅需要几分钟的音频样本,而百度最新的Deep Voice实现等复杂的模型可以从3.7秒的样本中复制语音。

斯坦福大学网络政策中心研究员、曾任奥巴马和特朗普政府时期白宫网络安全政策高级主管的Andrew Grotto(安德鲁·格罗托)表示:“罪犯将使用任何能让他们以最低成本实现目标的工具。也许这是一项在10年前听起来很新奇的技术,但是现在任何有想法的非专业罪犯都可以使用。” 

(图片来自网络)

目前市面上的AI语音合成软件的工作原理是将一个人的声音分解成不同的组成部分,比如音轨或音节,然后将这些组成部分重新排列,形成具有相似语音模式、音调和音色的新语音。除了借助这种新技术,骗子们还依赖于最常见的诈骗技巧来提高他们的效率,利用时间压力,比如临近的截止日期,或者社会压力,比如安抚老板的愿望,来让受害人打消任何疑虑。在某些情况下,犯罪分子会瞄准公司会计或财务的负责人,因为他们知道这些人有能力立即汇款。

(Pindrop的CEO演示如何合成公众人物的视频截图)

视频链接https://www.youtube.com/watch?v=PDs8-Exx6kE&feature=youtu.be

除了进行诈骗,DeepFake音频还存在向公众传递负面信息的风险。RSA大会演讲现场,Pindrop的CEO向公众演示了一款合成公众人物声音的AI系统,这项技术通过在网上搜索特朗普之前的录音来模仿他的声音,耗时不到一分钟,并用美国总统特朗普的声音说了一些笑话。如果这项技术被用于仿造领导人物的声音,并用到犯罪事件中,无疑可能非常危险,甚至给国家安全带来危害。

AI声音合成如此猖獗,应该如何防范?

虽然风险重重,但语音模拟技术的发展势不可挡。例如,Google已经为自动识别DeepFake语音的研究项目提供了资金和资源的帮助。但Google也开发了一些世界上最具说服力的语音人工智能,包括它的Duplex服务,它可以用电脑生成的栩栩如生的声音,打电话给餐厅预定座位。

(Google语音助手,图片来自网络)

卡内基国际和平基金会(Carnegie Endowment for International Peace)硅谷办公室主任Charlotte Stanton则提醒业界:“在商业领域,人们有很强的的意愿想要制造出好的技术产品,但一定要平衡,避免它被用于非法途径。所以,研究人员在研发像AI语音合成技术这样强大的技术时需要更加谨慎,很明显,AI语音合成已经到了可以被滥用的地步。”

幸运的是,人工智能开发人员正在努力构建能够检测和打击Deepfake音频的解决方案。例如,Pindrop公司已经开发出一种人工智能算法,可以从DeepFake的音轨中辨别真实的语言。它是通过检查说话时单词的实际发音,以及这些发音是否与真实人类的说话模式相匹配,因为人类的声音无法像机器伪装那样标准和快速。

Pindrop还预测到,也许有一天音频安全服务会像数据安全服务一样有巨大的市场。该公司CEO表示:“会有一些公司建立检测这些安全漏洞的机制。如果网上出现了伪造的音频,那么这个机制就会开始保护你的声音数据。”

(Pindrop CEO Vijay Balasubramaniyan,图片来自网络)

除了Pindrop等小公司。硅谷科技巨头也积极的致力于寻找检测Deepfake音频的方案。例如,谷歌在去年年初与GNI合作,发布了一系列合成语音,其中包含由其深入学习的文本到语音(TTS)模型所说的数千个短语,来自英文报纸文章68种不同的合成语音,并涵盖了各种区域口音。该数据库提供给了2019 ASVspoof挑战的参与者使用,该竞赛旨在开发针对假语音的对策,特别是可以创建区分真实和计算机生成的语音的系统。

同时,DeepFake音频的潜在威胁也可能会改变用户的行为,使用户在向互联网上传声音时更加谨慎。Pindrop调查的诈骗案例中就有这样一位受害者,他几乎没有在任何社交平台上公开过自己的声音,仅仅是因为召集员工开会时的讲话被窃取,就成为了犯罪分子的目标。这样的案例不禁会让人联想:“既然这么谨慎的人都会存在被诈骗的风险,那么我们干脆就不要在公众平台上表露自己的任何生理特征,包括声音和长相。这实在太恐怖了!”

(图片来自网络)

不敢想象,如果我们的公众社交平台上面看不到任何超出文字以外的更生动的表达,那么几十年来的科技和信息发展不就白费了吗?这无疑是对多年来为人类科技文明进化做出贡献的科技工作者的侮辱。

参考链接:

https://www.pcmag.com/news/is-ai-enabled-voice-cloning-the-next-big-security-scam

Google releases synthetic speech database to help ‘deep fake’ audio detection research

https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software-reportedly-used-major-theft/

文章主要内容转自:硅谷洞察