DeepSeek破局AI,这些希望之门即将改变世界

蓝鲸财经
17 Feb

文|数据猿

DeepSeek能够屹立于AI舞台的中央,不仅在于其在大语言模型(LLM)上所取得的突破,更在于为AI开启了希望之门,而这也正是最大的悬念所在。

凭借其一系列大模型,DeepSeek打破了AI大模型发展的传统范式——使用昂贵的GPU,消耗大量电力和资源,通过训练更大的模型,换取AI性能的线性增长。而DeepSeek R1则另辟蹊径,借助强化学习技术在微调环节让模型性能实现超越。未来AI的竞争不再单纯取决于资金投入,而是更注重成本效益,开启了AI新的发展方向。

DeepSeek的崛起表明,规模并非衡量模型优劣的唯一标准,较小规模、更灵活的模型也能有出色表现,为企业提供性能更优的选择。

DeepSeek的成功也表明,未来表现最好的模型将是开源的,对客户和AI开发者都有利的,有助于实现AI的大众化。而国内外企业纷纷接入DeepSeek大模型,热衷于用DeepSeek R1等开源模型取代OpenAI等昂贵的封闭大模型。

正像美国总统特朗普而言,DeepSeek的出现不是威胁,而是一个“巨大”的机会,为用户、模型推理、模型训练、模型小型化、AI应用等创造更多的机会。未来的AI竞争可能不再仅仅是“谁有更多的钱,谁就能训练更强的模型”,而是“谁能用更少的钱,达到相同甚至更好的效果”。

1.星火燎原,更多企业与服务接入DeepSeek开源大模

千千万万的应用都以DeepSeek为基座,由此构建的生态将重塑AI产业格局。

开源就是源代码在Web上免费提供,可以进行修改和重新分发。与OpenAI等竞争对手的大模型不同,DeepSeek的模型是开源的,其中DeepSeek R1在MIT许可下开源使用。

DeepSeek开源特性和低计算要求大大降低了成本,加速了AI的采用。用户可以在Web、iPhone/iPad、Android、云计算、各种软件等上免费获得DeepSeek应用。云服务商可以免费接入,甚至可以推出自己的AI大模型服务。

开源模型不存在硬件和软件护城河,开发人员非常热衷于用DeepSeek R1等开源模型取代OpenAI昂贵的封闭模型。

“DeepSeek强大的新人工智能模型不仅是中国的胜利,也是Databricks、Mistral、Hugging Face等开源技术的胜利。”开源人工智能“不再只是一个非商业研究计划,而是像OpenAI GPT等封闭模型的可行、可扩展的替代方案”。

DeepSeek迅速成为全球下载量最大的应用。Gartner预测,到2026年,超过80%的企业将使用GenAI或部署GenAI应用。组织同时利用数百个模型,并面临着为其各种使用案例选择最佳模型的压力。而选择正确的AI模型并快速部署对于获得市场优势至关重要。

在不同平台上,DeepSeek下载量都取得突破,其用户正在日益增加。在苹果的App Store上,DeepSeek取代了竞争对手OpenAI,成为下载量最大的免费应用程序。在另一个移动应用商店Google Play中,自1月28日以来DeepSeek下载量一直保持领先,在短短18天的下载量达到了1600万次,几乎是OpenAI ChatGPT刚发布时900万次下载量的两倍。

开放AI模型的支持者对DeepSeek充满热情。基于DeepSeek-V3和R1的700多个模型现已在AI社区平台HuggingFace上提供,下载超过了500万次。

QuestMobile数据显示,DeepSeek在2月1日突破3000万大关,成为史上最快达成这一里程碑的应用。

在国外,包括英伟达微软亚马逊在内的多家美国公司纷纷抢先采用DeepSeek-R1模型,为用户提供服务。

微软最早将DeepSeek-R1模型被纳入微软平台Azure AI Foundry和GitHub的模型目录,开发者将可以在Copilot +PC上本地运行DeepSeek-R1精简模型,以及在Windows上庞大的GPU生态系统中运行。

随后亚马逊云科技AWS也宣布,用户可以在Amazon Bedrock和Amazon SageMaker AI两大AI服务平台上部署“功能强大、成本效益高”的DeepSeek-R1模型。

英伟达1月30日宣布,DeepSeek-R1模型可作为NVIDIA NIM微服务预览版使用。NVIDIA NIM是NVIDIA AI Enterprise的一部分,为跨云、数据中心和工作站的自托管GPU加速推理微服务提供容器,用于预训练和自定义AI模型。

而一些规模较小的美国科技公司也采用了DeepSeek模型。美国AI初创公司Perplexity宣布接入了DeepSeek模型,将其与OpenAI的GPT-o1和Anthropic的Claude-3.5 并列作为高性能选项。

New Relic公司通过DeepSeek集成扩展AI可观测性,以帮助客户降低开发、部署和监控生成式AI应用的复杂性和成本。

DeepSeek自1月初推出以来,印度下载量惊人。印度的Yotta Data Services推出了“myShakti”,就基于DeepSee开源AI模型构建,竟被称为是印度第一个完全主权的B2C生成式AI聊天机器人。另一家印度公司Ola的AI平台Krutrim 将DeepSeek模型集成到其云基础设施中。

开源的DeepSeek之所以受到国外用户与服务商的欢迎,源于:模型开源,可以免费获得,部署算力需求低;API价格比GPT-4便宜10倍,甚至比Claude便宜15倍;速度极快,并且在某些基准测试中与GPT-4相当,甚至更好等。

中国云服务商、软件企业等接入DeepSeek,操作系统、网络安全、应用软件、云服务等不同领域都集成了DeepSeek,为软件和应用带来AI能力。

腾讯云、百度智能云、阿里云、京东云、青云等,以及三家基础电信企业都先后接入DeepSeek大模型,麒麟软件、金蝶、用友、钉钉、南威软件远光软件万兴科技超图软件等先后宣布已完成对DeepSeek的适配、接入。

例如,中国电子云CECSTACK智算云平台正式上线MoE架构的671B全量DeepSeek-R1/V3模型,以及DeepSeek-R1的蒸馏系列Qwen/Llama模型,并提供私有化部署方案,为关键行业用户提供安全可靠、智能集约的智能化解决方案。

目前,中国电子云已在湖北机场集团进行了DeepSeek-R1私有化部署,依托DeepSeek-R1大模型服务湖北机场集团打造企业知识库等智能应用。

DeepSeek大模型已与银河麒麟智算操作系统V10、银河麒麟高级服务器操作系统V10完成兼容适配,可实现本地部署,支持通过Chatbox AI客户端使用DeepSeek,通过vscode集成DeepSeek实现辅助编程。银河麒麟高级服务器操作系统V10作为云底座基础设施已全面支持各大云厂商,实现DeepSeek的云端部署与使用。

天融信发布的DeepSeek安全智算一体机以“算力硬件平台+智算平台”为基座,集成DeepSeek大模型,融合“计算、存储、网络、安全、智能”五大能力,旨在为客户提供高性能、安全可靠的一体化智算中心建设方案。

中国电动汽车巨头比亚迪近将为其汽车发布“DiPilot”辅助驾驶系统,正在将DeepSeek的人工智能集成到最先进的新驾驶员辅助系统中。

DeepSeek大模型的开源,为AI技术的普及和行业应用带来了新的机遇和动力。据赛迪预测,到2035年,我国人工智能核心产业规模将达到1.73万亿元,全球占比将超过30%。

企业和服务商为什么愿意接入DeepSeek?一是提高工作效率。DeepSeek能够显著缩短推理时间,对用户问题给出答案。如在内容创作部门,通过输入关键信息和要求,短时间内就能生成初稿,从而加快市场响应速度。

二是降低人力成本。DeepSeek可以自动完成数据标注任务,减少对基础、重复性工作的依赖,同时通过智能客服系统,7*24小时不间断地为客户解答常见问题,节省人力开支并提升服务的及时性和稳定性等。

三是支持数据分析与决策。DeepSeek对海量的市场数据、用户反馈数据进行快速分析,挖掘潜在规律和趋势,帮助企业制定科学合理的战略规划和市场营销策略。

四是提供个性化服务。DeepSeek技术能够根据用户的需求和偏好提供定制化的服务,如在电商领域推动个性化推荐系统的普及,提高购物体验和满意度等。

2.推理模型兴起,芯片有望百花齐放

DeepSeek R1的迅速崛起,使一种被称为推理模型的新兴AI模型成为人们关注的焦点。随着生成式AI应用超越对话界面,推理模型的功能和使用可能会增加。

DeepSeek R1推理模型的不同之处在于做到了将预训练模型,变成一个功能更强大的推理模型,而且成本更低,资源利用效率更高,其运行成本只有普通LLM三十分之一。就像在 PC 和互联网市场,产品价格下跌有助于推动应用一样,DeepSeek R1同样以更低的模型运行成本,把人工智能市场推上了长期增长的道路,堪称一个具有里程碑意义的时刻。

DeepSeek R1成功表明,有了足够强大的基础模型,强化学习就足以在没有任何人工监督的情况下从语言模型中引出推理。随后在通用大模型GPT-3、GPT-4(OpenAI)、BERT(Google)等之后,出现了像OpenAI o1-mini、OpenAI o3-mini、Gemini 2.0 Flash Thinking等推理模型。

发展推理模型成为AI发展的一个重要机会。推理大模型是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它们通常具备额外的技术,如强化学习、神经符号推理、元学习等,以增强其推理和问题解决能力。如DeepSeek-R1、GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。

而非推理大模型如OpenAI、Gemini、阿里巴巴的Qwen等适用于大多数任务,主要用于语言生成、语言理解、文本分类、翻译等任务。此类模型通常通过对大量文本数据的训练,一般侧重于语言生成、上下文理解和自然语言处理等,而不强调深度推理能力。

与可能直接生成答案的通用LLM不同,推理模型经过专门训练以展示他们的工作,并遵循更结构化的思维过程。一些模型不显示它们的逻辑推理阶段,而另一些模型则明确显示它们的逻辑推理阶段。推理阶段展示了模型如何将所述问题分解为较小的问题(分解),尝试不同的方法(构思),选择最佳方法(验证),拒绝无效方法(可能回溯),并最终选择最佳答案(执行/求解)。

推理模型与通用模型比较

资料来源:微软

随着核心技术日益商品化和廉价化,推理模型和一般的LLM将变得多样化并专门用于更狭窄的任务。

目前,AI企业推出了各种构建和改进推理模型的技术,也为其他企业提供技术创新的机会。

提高LLM的推理能力的方法在不断发展,如推理时扩展(在推理过程中增加计算资源以提高输出质量)、纯强化学习(RL)、监督微调和强化学习(SFT + RL)等。据介绍,DeepSeek R1采用不同的技术,引入了三个不同的推理模型变体:

DeepSeek-R1-Zero基于2024年12月发布的671B预训练DeepSeek-V3基础模型,使用具有两种奖励的强化学习(RL)对其进行训练,被称为 “冷启动”训练。

DeepSeek-R1是DeepSeek的旗舰推理模型,基于DeepSeek-R1-Zero构建,通过额外的SFT阶段和进一步的RL训练进一步完善,改进了“冷启动”R1-Zero 模型。

DeepSeek-R1-Distill,利用前面步骤生成的SFT数据,DeepSeek团队对开源的Qwen和Llama模型进行了微调,以增强其推理能力。虽然不是传统意义上的蒸馏,但这个过程涉及在更大的DeepSeek-R1 671B模型的输出上训练较小的模型(Llama 8B和70B以及Qwen 1.5B-30B)。

DeepSeek和推理模型的兴起也将对处理器需求产生影响,推动推理芯片市场的增长。推理是指使用和应用AI根据新信息做出预测或决策的行为,而不是构建或训练模型。简而言之,AI训练是构建工具或算法,而推理是实际部署此工具以用于实际应用程序。

AI训练是计算密集型的,但推理可以使用功能较弱的芯片,经过编程可以执行范围更窄的任务。随着客户采用和构建DeepSeek的开源模型,对推理芯片和计算的需求将增加。

DeepSeek的测试表明,华为的HiSilicon Ascend 910C处理器的推理性能超出了预期。此外,通过对CUNN内核的手动优化,可以进一步提高其效率。DeepSeek对Ascend处理器及其 PyTorch存储库的原生支持,允许以最少的工作量实现无缝的CUDA到CUNN转换,从而更轻松地将华为的硬件集成到AI工作流中。

新的 Ascend 910C采用小芯片封装,其主计算SoC拥有约530亿个晶体管,是由中芯国际采用其第二代7nm级工艺技术制造的。

AWS推出的推理芯片主要为Inferentia系列,在提升推理效率与降低成本方面表现出色。AWS 推理芯片有Inferentia和Inferentia2两代。第一代Inferentia为EC2 Inf1实例提供支持,吞吐量提升2.3倍,推理成本降70%,搭载多个NeuronCore,支持多种数据类型。

第二代Inferentia2性能飞跃,吞吐量提高4倍,延迟降低,内存和带宽大幅提升,支持更多数据类型。搭配AWS Neuron SDK可集成热门框架,助力AI应用。

寒武纪在推理芯片领域成果显著,思元370芯片表现亮眼。它基于7nm制程工艺,是首款采用chiplet技术的AI芯片,集成390亿晶体管,最大算力256tops(int8) ,相较思元270算力翻倍,基于mluarch03架构,实测性能出色。它也是国内首款公开发布支持lpddr5内存的云端AI芯片,内存带宽为上一代3倍,访存能效高。

思元370搭载mlu - link多芯互联技术,在分布式任务中为多芯片提供高效协同,每颗芯片有200gb/s额外跨芯片通讯能力。软件平台上,寒武纪基础软件平台升级,新增推理加速引擎MagicMind,实现训推一体,提升开发部署效率,降低成本。MagicMind对标英伟达TensorRT,架构和功能更优,优势是性能极致、精度可靠、编程接口简洁,插件化设计还能满足客户差异化需求。

3.更小的成本也能训练大模型,AI训练芯片走向多样化

DeepSeek最突出的是模型效率、训练精度和软件优先的创新,设计了更快、更精简、更智能的模型。DeepSeek的模型通过证明效率可以与原始计算能力相媲美,挑战了传统的AI基础设施依赖。

DeepSeek也有通用的大模型DeepSeek-V3、DeepSeek-R1等,其中DeepSeek-V3包含670亿参数,在2万亿token的中英文数据集上训练,可用于语义分析、计算推理、问答对话等,在推理、编码、数学和中文理解等方面超越Llama2 70B base,展现出显著的泛化能力。DeepSeek V3的基准测试分数与OpenAI GPT-4o和Anthropic Claude 3.5 Sonnet 相当或击败对手。

DeepSeek-R1总参数671亿,主要用于数学推理、代码生成、自然语言推理等需要深度逻辑分析的任务,在数学、编码等任务中性能对标OpenAI o1,但API成本仅为后者的1/30。推理模型DeepSeek-R1思维链推理类似于OpenAI o1。虽然R1不是第一个开放推理模型,但它比以前的模型功能更强大。

DeepSeek R1是一款开源 LLM,与OpenAI的最佳产品相比,拥有卓越的性能的同时需要的计算和训练资源大大减少,因此在科技领域掀起了波澜。早些时候微软表示,在2025年将在AI基础设施上花费800亿美元,而Meta CEO扎克伯格表示,计划在2025年投资600亿至650亿美元的资本支出,作为其AI战略的一部分。

在DeepSeek的示范下,未来越来越多的LLM将商品化。随着大模型训练技术变得越来越先进,以及培训和运行LLM所涉及的成本不断下降,预计LLM将在不久的将来成为一种商品。

DeepSeek R1模型的问世被一些科技公司CEO视为LLM正变得越来越商品化的进一步指标。

Hugging Face是开源AI项目的常用代码仓库。Hugging Face的联合创始人兼首席科学官 Thomas Wolf表示,LLM将更多地集成到与公司自己的数据库相连的智能系统中。人工智能的Airbnb、人工智能的Stripe将出现,他们与模型无关,而是使模型对任务有用。

微软CEO Satya Nadella认为,随着人工智能变得更加高效和可及,我们将看到LLM的使用量猛增,将其变成我们可能无法完全满足其需求的商品。

与此同时,美国软件公司 Appian CEOMatt Calkins说,DeepSeek的成功表明AI模型在未来将更多地成为一种商品。许多公司将实现有竞争力的AI,而高成本必然会影响大模型的销售。

显然,英伟达在大模型训练的AI芯片市场占据主导地位,但竞争比以往任何时候都更加激烈。瑞穗证券估计,英伟达控制着70%到95%的AI芯片市场,用于训练和部署LLM。78%的毛利率凸显了英伟达的定价能力。竞争对手芯片制造商英特尔和AMD报告的最新季度毛利率分别为41%和47%。

英伟达旗舰AI GPU如H100,再加上该公司的CUDA软件,使其在竞争中领先一步,以至于切换到替代方案似乎几乎是不可想象的。

尽管英伟达GPU市场从30亿美元膨胀到约900亿美元。英伟达承诺每年发布一种新的AI芯片架构,而不是像历史上那样每隔一年发布一次,并推出可以更深入地将其芯片融入AI软件的新软件。

从跨国公司到新兴初创公司都在争夺AI芯片市场的份额,未来五年市场规模可能达到 4000亿美元。

AMD生产用于游戏的GPU,并且与英伟达一样,正在将其应用于数据中心内的AI。它的旗舰芯片是Instinct MI300X。AMD CEO苏姿丰博士强调了该芯片在推理方面的卓越表现,而不是与英伟达竞争训练。微软正在使用AMD Instinct GPU为其Copilot模型提供服务。今年AMD的人工智能芯片销售额可能超过40亿美元。

英特尔最近宣布了其AI加速器的第三个版本Gaudi 3。英特尔将其直接与竞争对手进行了比较,将其描述为更具成本效益的替代方案,在运行推理方面优于英伟达H100,同时在训练模型方面速度更快。英特尔拥有不到1%的AI芯片市场份额。

更广泛采用的主要障碍可能是软件。AMD和Intel都参与了一个名为UXL基金会的大型行业组织,该组织正在努力创建Nvidia CUDA的免费替代品,用于控制AI 应用的硬件。

英伟达未来将与其最大的客户在芯片上翟看竞争。虽然包括 Google、Microsoft、亚马逊、甲骨文在内等的云服务GPU的采购额占到英伟达收入的 40% 以上,但都在构建供内部使用的处理器。

除了推理芯片Inferentia外,AWS首次推出了针对大模型训练的AI芯片Tranium。客户以通过AWS租用该芯片。该芯片首个用户是苹果公司。

Google自2015年以来,一直在使用所谓的张量处理单元(TPU)来训练和部署AI模型。已经有六个版本的Trillium芯片,用于开发其模型包括Gemini和Imagen。谷歌还使用英伟达芯片并通过其云提供它们。

微软正在构建自己的AI加速器和处理器,名为Maia和Cobalt。OpenAI 的定制芯片设计已接近完成,与Broadcom合作设计,由台积电制造,使用其3纳米工艺技术,以确保芯片可以进行大规模生产。如果成功,该芯片将于2026年在台积电开始量产。

摩根大通分析师估计,为大型云提供商构建定制芯片的市场价值可能高达300亿美元,每年可能增长20%。

开发人员越来越多地将AI工作从服务器转移到个人拥有的笔记本电脑、PC和手机。像OpenAI开发的大模型需要大量强大的GPU集群来进行推理一样,像Apple和微软这样的公司正在开发“小模型”,需要更少的电力和数据,并且可以在电池供电的设备上运行。Apple和Qualcomm正在更新他们的芯片,以更有效地运行AI,为AI模型添加了神经处理器的专门部分。

4.让模型变小有章可循,小模型应用前景喜人

越来越多的企业正在推出SLM,挑战AI模型开发中“越大越好”的流行观念。而DeepSeek R1推理模型在首次亮相后,以低廉的训练成本展示了领先的性能。DeepSeek的崛起表明,规模更大并不意味着更好,规模更小、更灵活的玩家可以与AI巨头大模型相媲美,并有可能战胜它们。

SLM以更低的成本,更高的效率,可能会改变企业AI部署的格局,使预算有限的中小企业企业更容易获得AI模型的高级功能。

DeepSeek也有许多小模型。如DeepSeek-Coder,由一系列代码语言模型组成,从1B到33B版本不等,在2万亿token上训练,数据集含87%代码和13%中英文自然语言。主要用于代码编写等任务,在多种编程语言和基准测试中达开源代码模型先进性能。

DeepSeek-VL则是开源视觉-语言模型,采用混合视觉编码器,能处理高分辨率图像。有1.3B和7B模型,在视觉-语言基准测试中性能出色,可用于视觉问答等多种视觉与语言结合的任务。

DeepSeek衍生和蒸馏的小模型,包括Qwen系列蒸馏模型、Llama系列蒸馏模型、DeepSeek-R1-Distill模型等,如DeepSeek-R1-Distill-Qwen-7B和DeepSeek-R1-Distill-Llama-70B。前者在多个推理基准测试中超越同规模模型,后者推理速度大幅提升,在GSM8K和HumanEval等领域接近顶级闭源模型。它们的参数量在15B到70B范围内,相比大模型计算和内存消耗显著降低。这些小模型继承了大模型的核心推理能力,可在教育领域自动批改数学作业、医疗领域辅助快速诊断等。

DeepSeek衍生和蒸馏的小模型在多个领域具有广泛的应用价值,具有很强的示范价值。未来,AI企业可以通过发展不同的小模型,推动AI的应用。

蒸馏模型通过减少参数量和计算复杂度,显著提升了推理速度。例如,DeepSeek-R1-Distill-Qwen-7B的推理速度比原始模型提高了约50倍,使其能够在资源受限的设备上高效运行。

小模型的部署成本大幅降低,适合在计算资源有限的场景中使用。DeepSeek的蒸馏模型在保持高性能的同时,训练和推理成本显著降低,推动了AI技术的普及。

多任务适应性。蒸馏模型通过多任务适应性机制,能够根据不同任务优化其性能,适用于自然语言处理、代码生成、数学推理等多种应用场景。如小模型的轻量化设计使其能够在智能手机、智能手表等边缘设备上运行,实现实时决策和低能耗操作,适用于自动驾驶、健康监测等需要快速响应的场景。

将小模型应用等不同的行业。如在教育领域,蒸馏模型可以提供个性化的学习推荐和智能辅导,帮助学生制定个性化的学习路径,提升学习效率。蒸馏模型在医疗影像分析和疾病预测中表现出色,能够提供实时的医疗建议和辅助诊断,提升医疗服务的效率和质量。在金融领域,蒸馏模型可以用于市场趋势分析、风险评估和智能投顾,提供个性化的投资建议和风险管理方案。

目前,市场上已经出现不少创新技术,通过开源模型和创新技术,大幅降低模型训练成本和模型小型化成本。

如来自斯坦福大学和华盛顿大学的联合团队已经训练了一个以数学和编码为重点的大型语言模型,该模型的性能与OpenAI o1 和DeepSeek R1推理模型一样好,构建它只需50美元的云计算积分。

该团队使用了一个现成的基础模型,然后将Google Gemini 2.0 Flash Thinking Experimental模型提炼到其中。提炼AI的过程包括从较大的AI模型中提取相关信息以完成特定任务,并将其传输到较小的AI模型。

又如Hugging Face发布OpenAI Deep Research和Google Gemini Deep Research工具的竞争对手,称为Open Deep Research,利用免费开源LLM,大约需要20美元的云计算积分,并且只需不到30分钟即可完成训练。

Hugging Face的模型随后在通用AI助手(GAIA)基准测试中获得了55%的准确率,该基准测试用于测试代理AI系统的能力。相比之下,OpenAI Deep Research 得分在67– 73%的准确率之间,具体取决于响应方法。

阿里的李飞飞团队基于阿里云通义千问(Qwen)模型进行监督微调,成功开发出s1模型。训练该模型仅花费不到50美元,使用16张英伟达H100 GPU,仅耗时26分钟。DeepSeek通过蒸馏技术将大模型能力传递给小模型,而李飞飞团队则是微调现有大模型,借助高质量数据和测试时拓展技术,实现低成本、高性能的模型训练。

以DeepSeek为代表的开源模型凭借低廉API服务费用,对传统闭源大模型发起挑战,未来可能重塑AI市场格局。

低成本高效能大模型的出现,给AI应用公司、云厂商、用户带来新机遇。AI应用公司可基于新模型开发创新产品,提高资本回报率;云厂商则加速布局开源大模型生态服务,抢占算力需求市场;用户可以基于开源大模型,训练和部署自己专属的大模型。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10