跟读练习: The Ultimate Transformer Course for Working Engineers - 通过YouTube学习英语口语
C2
跟读控制
0% 已完成 (0/9 句)
If you're working with LLMs or any Transformer-based model, you probably have hit a real problem, like slow inference, an out-of-memory error, or frustrating hallucinations.
⏸ 已暂停
速度:
重复次数:
等待模式:
字幕同步:0ms
所有句子9 句
1
If you're working with LLMs or any Transformer-based model, you probably have hit a real problem, like slow inference, an out-of-memory error, or frustrating hallucinations.
2
So you know that understanding the pieces isn't the same as understanding how they all fit together, and then how you can action on them and debug these issues by understanding how the Transformer and the LLM system around it really work.
3
I'm Sharon Jo, and this is Transformers in Practice, built in collaboration with Deep Learning AI and AMD.
4
You might find that those explanations don't connect to the problems you're actually facing.
5
To address that, this course gives you the complete practical view so you can gain deeper intuition in a way that impacts how you can practically use LLMs.
6
This includes how Transformers generate text one token at a time, what attention really is doing, and how it all gets optimized to run on GPUs.
7
Throughout the course, interactive visualizations will let you see and play with key technical pieces and how they come together coherently.
8
Transformers in Practice is available now, and I'll see you there.
9
you
App Store 和 Google Play 评分 4.9/5
Shadowing English
移动端
随时随地使用 Shadowing English 应用学习英语。今天就提高您的沟通技巧!
跟踪您的学习进度
AI 评分和纠错
丰富的视频库

关于本课程
在这节课中,您将会学习与大型语言模型(LLMs)和基于转换器(Transformer)模型相关的实用知识。本课程将帮助您理解如何解决常见的实际问题,例如推理速度慢、内存溢出错误以及令人沮丧的幻觉现象。通过掌握这些内容,您将能够有效地调试并应用LLMs,提升您的英语口语和专业术语的使用能力。
关键词汇与短语
- 转换器(Transformer) - 一种用于处理序列数据的模型。
- 大型语言模型(LLMs) - 通过大规模数据训练的语义理解模型。
- 推理速度(Inference Speed) - 模型生成结果的速度。
- 内存溢出(Out-of-Memory) - 在处理数据时超出系统可用内存的情况。
- 注意力机制(Attention Mechanism) - 模型在处理序列时关注重要信息的过程。
- 互动可视化(Interactive Visualizations) - 使学习者能够直观理解复杂概念的工具。
- GPU优化(GPU Optimization) - 提升模型在图形处理单元上运行效率的技术。
- 文本生成(Text Generation) - 模型根据输入生成相应文本的能力。
练习建议
对于这节课的跟读练习,您可以使用 shadow speech 技巧,尤其是在视频标准语速下进行练习。在听到主播说话时,尝试逐字跟读并模仿其语调和情感表达。这样不仅能提高您的英语发音,还可以帮助您更好地理解复杂的技术词汇和短语,强化记忆。
建议您分段进行练习,每次集中精力于一小节内容,迅速复述主播的发音,确保语速和语调与原音一致。在练习过程中,如果遇到不熟悉的单词或短语,可以暂停视频,反复聆听并进行多次跟读,直到达到理想的发音流畅度。通过这样的 英语影子跟读 方法,您可以显著提高您的口语能力,尤其是在专业领域留出更多空间去表达技术性内容。
什么是跟读法?
跟读法 (Shadowing) 是一种有科学依据的语言学习技巧,最初开发用于专业口译员的培训,并由多语言者Alexander Arguelles博士普及。这个方法简单而强大:您在听英语母语原声的同时立即大声重复——就像是一个延迟1-2秒紧跟说话者的影子。与被动听力或语法练习不同,跟读法强迫您的大脑和口腔肌肉同时处理并模仿真实的讲话模式。研究表明它能显着提高发音准确性,语调,节奏,连读,听力理解和口语流利度——使其成为雅思口语备考和真实英语交流最有效的方法之一。
