散落一地“鸡毛” 业主租客信心跌至谷底
|
Rathbone 全球机会基金(GB00B7FQLN12)的助理基金经理 Sammy Dow 表示:“ ASML 的主导市场地位和增强的结构性增长特征应该可以使它比以往更加孤立。来自不断增长的安装基础和订单积压的服务收入也应证明是防御性的。
正如 Heggie 先生所指出的那样:“ ASML 可能是大多数人从未听说过的技术公司,但是其光刻机对于我们日常生活中的进步至关重要,并应有助于确保 ASML 在未来几年中能以可观的速度增长。” ASML 原来的目标是在 2020 年生产 35 套 EUV 系统,但他们表示公司将落后于其目标。这不仅仅是与大流行有关的问题;同时,这于英特尔因缺陷而推迟生产其新的 7nm 芯片也有关系。尽管如此,ASML 仍计划今年制造 45 至 50 套 EUV 系统,并指导 EUV 销售额将连续第五年增长,达到 54 亿欧元。 不过,由于激进投资者 Third Point 面临抛弃其芯片制造业务的压力,英特尔可能会面临进一步的复杂化。但是 Liberum 的分析师认为,如果英特尔将其芯片制造活动外包给台积电,这对于 ASML 可能会很好地解决。这是因为 ASML 是台积电用于光刻技术的唯一供应商,而它却与尼康竞争在英特尔的工作。 在特朗普总统发起的贸易战中,半导体已成为美中之间的关键战场。中国并不是 ASML 收入的重要组成部分,它在 2019 年占净销售额的 12%。美国最近将中国最大的芯片制造商 SMIC 列为其“实体名单”,这意味着需要技术许可才能从美国向该公司出口技术。中芯国际是 ASML 的客户,但是 Liberum 估计它只占该集团收入的不到1%。 ASML 可以通过将其 DUV 系统从荷兰运到中国来在一定程度上规避美国的限制。但是随着美国依靠其欧洲盟友,荷兰政府推迟了续签许可证,以允许该组织将其 EUV 系统从荷兰运送到中国。目前尚不清楚何时或是否将授予。 从长远来看,随着中国看起来更加自给自足,可以想象国内竞争对手可以发展自己的 EUV 系统。但这必须从头开始,与 ASML 的巨额投资和数十年的经验竞争。与此同时,即将上任的拜登政府可以缓解贸易战的不利因素,尽管拜登针对中国的具体战略目前仍不清楚。 截至 9 月底,ASML 的净债务为 2.19 亿欧元,但市场普遍预计,到 2020 年,ASML 的净现金将略高于 9 亿欧元。该集团已维持了十多年的年底净现金状况,并且在年度自由现金流产生方面也有良好的记录。这使其能够投资于并购,例如在 2013 年以 20 亿欧元的价格购买了光刻光源供应商 Cymer,从而推动了该集团的 EUV 技术的发展,并通过股息和回购的方式回报了股东。
由于受到 2018/19 年度半导体业低迷的影响,ASML 的股价在过去一年中一直保持增长势头,上涨了 50% 以上。目前的市盈率为 2021 年预期市盈率 41 倍,企业价值与营业利润之比为 37。 简单来说,DALL·E 可以基于文本直接生成图像,CLIP 则能够完成图像与文本类别的匹配。 出门问问 CEO 李志飞曾告诉极客公园(ID: GeekPark),“GPT-3 随着数据和参数规模增大而展现出的学习能力曲线,目前也还没有要停止的意思。虽然 AI 的学习能力还没有达到大家公认的“摩尔定律”,但是过去几年确实看到模型每几个月就翻倍。可以预测到的是,GPT-4 参数又会增大至少 10 倍,而且处理的数据将会更加多模态(文字、图像、视觉、声音)。” OpenAI 首席科学家 Ilya Sutskever 也在推特上发文表示:“人工智能的长期目标是构建多模态神经网络,即 AI 能够学习不同模态之间的概念(文本和视觉领域为主),从而更好地理解世界。而 DALL·E 和 CLIP 使我们更接近『多模态 AI 系统』这一目标。” DALL·E 和 CLIP 的出现,让人们看到自然语言与视觉的壁垒正在被逐渐打通。
几十年前,柯达说出了那句经典的广告语,“你负责按快门,剩下的交给我们”。在未来,AI 兴许也会打起类似的广告,“你什么都不用干,剩下的交给我们”。 一个生成图像,一个匹配文字和图像 但 DALL·E 目前也存在局限,比如当人们引入更多的对象时,DALL-E 容易混淆对象及其颜色之间的关联。另外,用意思相同的词重新表述指令,生成的图像也不一致。还有一些迹象表明,DALL·E 只是在模仿它在网上看到的图片,而不是生成新颖的图像。 而 OpenAI 同期发布的 CLIP(Contrastive Language–Image Pre-training),则是为了加强文本和图像的关联程度而诞生的。CLIP 是一个从互联网上收集的 4 亿对图像和文本来进行训练的多模态模型。 CLIP 使用了大量可用的监督资源,即网络上找到的文本-图像对。这些数据用于创建 CLIP 的代理训练任务,即给定一张图像,然后预测数据集中 32768 个随机采样文本片段中哪个与该图像匹配。 简单来说,CLIP 能根据视觉类别名称,自己分类图像,创新点在于它学会了识别图像,而不是像大多数现有模型那样,通过数据集中的标签(比如“猫”或“香蕉”)识别图像,而是从互联网上获取的图像及其标题中识别图像。 CLIP 瞄向的,就是当前深度学习的两个“痛点”:一是数据集构建成本高昂;二是数据集应用范围狭窄。具体来说,深度学习需要大量的数据,而视觉模型传统上采用人工标注的数据集进行训练,这些数据集的构建成本很高,而 CLIP 可以从互联网上已经公开可用的文本图像对中自行学习;CLIP 可以适应执行各种各样的视觉分类任务,而不需要额外的训练样本。
另外,实验结果表明,经过 16 天的 GPU 训练,在训练 4 亿张图像之后,Transformer 语言模型在 ImageNet 数据集上仅实现了 16% 的准确率。CLIP 则高效得多,实现相同准确率的速度快了大约 9 倍。 (编辑:烟台站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |

