쉐도잉 연습: How AI gets its character - YouTube로 영어 말하기 배우기

C1
쉐도잉 컨트롤
0% 완료 (0/51 문장)
Hi there.
⏸ 일시 정지
모든 문장51 문장
1
Hi there.
2
My name is Maggie and I lead the education team at Anthropic.
3
Today I'm here to talk to you about how AI assistants end up with a disposition.
4
We'll look at the two training stages that turn raw prediction into something useful, the fingerprints those stages leave behind and how knowing those fingerprints help you get better results.
5
Why does an AI try to be helpful in the first place?
6
Why is it polite?
7
Why does it refuse certain things?
8
Knowing that an AI predicts the next word doesn't really answer any of that.
9
Helpfulness is built deliberately in layers and each layer influences your experiences with AI each day.
10
Modern AI assistants are built in two stages.
11
Stage one is pre-training.
12
The model sees enormous amounts of data and learns one thing.
13
Given everything so far, guess what comes next?
14
That's it, repeated billions of times.
15
Stage two is fine-tuning.
16
The document completer from stage one gets trained again this time on curated examples of helpful behavior and
17
reward signals shaped by human preferences this is the layer that turns the ai model into an assistant imagine
18
you could talk to a model that had only been through stage one no fine-tuning at all you type what is the capital of France.
19
A raw pre-trained model doesn't answer your question, it continues your document.
20
Maybe it outputs Paris, what's the capital of Germany, Berlin, what's the capital of Spain, and so on, because it's seen that pattern in quizzes.
21
Maybe it writes a paragraph from a geography textbook, maybe it generates more questions.
22
It has no concept of you, no concept of helping.
23
It's purely continuing a document in whatever direction seems statistically likely.
24
The assistant behavior you actually experience with AI tools today is a trained overlay on top of that.
25
Fine-tuning is what makes generative AI systems usable and useful.
26
But because it relies on human judgments about what good looks like, the texture of those judgments shows up in these models' personality.
27
Often these personality traits are what make generative AI so effective.
28
But there can be a shadow side to AI's helpfulness.
29
Four shadow areas are, one, sycophancy.
30
When people prefer agreeable responses, the model learns to validate readily and back down under light pushback, even when it was right the first time.
31
Two, verbosity.
32
When thoroughness scores better during training, the model defaults to longer answers, even when brevity could serve you better for a specific situation.
33
Three, over-caution.
34
When safety training leans conservative, the model can hedge heavily or refuse requests that are actually safe.
35
And four, loose confidence calibration.
36
The model's stated confidence is only loosely tied to its actual liability.
37
Confidence is genuinely hard to train, so it's particularly important to be vigilant here.
38
These aren't bugs in one particular model.
39
They're things that show up in all AI models.
40
However, the quality and type of fine-tuning done on a model directly shapes how these things manifest, and it will likely be different from model to model.
41
At Anthropic, we train Claude to be broadly safe, ethical, and helpful.
42
You can even read Claude's entire constitution to see how we train Claude and how we intentionally shape Claude's personality.
43
Why does this matter to you?
44
Understanding how AI is made and why it behaves the way it does puts you in control when it comes to AI.
45
If your AI assistant caves the moment you push back, that's sycophancy, and you should factor that in when assessing responses.
46
If you're getting essays when you want bullets, that's the verbosity default kicking in.
47
If you're getting heavy caveats on a harmless question, that's over-caution.
48
We'll address what to do about this in the upcoming lessons.
49
The assistant you talked to wasn't born helpful.
50
That behavior was built layer by layer, and sometimes the seams show.
51
Learning to spot these seams is part of using AI well.
App Store 및 Google Play에서 4.9/5

Shadowing English 모바일에서

Shadowing English 앱으로 언제 어디서나 영어를 배우세요. 오늘 의사 소통 능력을 향상 시키십시오!

학습 진행 상황 추적
AI 채점 및 오류 수정
풍부한 비디오 라이브러리
Shadowing English Mobile App

이 비디오로 말하기 연습을 해야 하는 이유

이 비디오는 인공지능(AI)의 성격 형성과 관련된 내용으로, AI의 동작 방식을 이해하는 데 도움이 됩니다. 이러한 주제에 대해 영어로 이야기하는 것은 영어 회화 연습에 매우 유익합니다. 특히 기술과 관련된 주제를 다룰 때는 전문 용어와 표현이 많이 사용되므로, 실제 대화에서 자신감을 키울 수 있는 좋은 기회입니다. 발표자 Maggie는 AI의 학습 과정과 그 결과로서의 행동 양식에 대해 명확하게 설명하므로, 자연스럽게 영어 쉐도잉을 통해 자신의 발음을 교정하고 표현 능력을 향상시킬 수 있습니다.

맥락 속 문법 및 표현

이 비디오에서 사용된 몇 가지 핵심 구조를 살펴보겠습니다:

  • "Given everything so far, guess what comes next?" - 조건과 상관절을 결합해 다음 행동을 추측하는 방식입니다.
  • "Helpfulness is built deliberately in layers" - '도움이 되는 행동은 의도적으로 여러 층으로 형성된다'는 표현은 수동태와 추상적 개념을 잘 보여줍니다.
  • "The quality and type of fine-tuning done on a model directly shapes..." - 여기서 'done on a model'은 수동태를 사용하여 AI 모델에 대한 조정과정을 강조합니다.
  • "What to do about this in the upcoming lessons." - 추후에 다룰 내용을 언급하며 학습 방향성을 제공합니다.

이러한 문장 구조를 적절히 연습하면 IELTS 스피킹 준비에도 큰 도움이 됩니다.

일반적인 발음 함정

이 비디어에서 몇 가지 발음이 주의가 필요한 부분들이 있습니다:

  • "pre-training" - 이 단어는 '프리-트레이닝'이라고 발음해야 하며, 특히 모음 부분에 주의해 주십시오.
  • "fine-tuning" - '파인-튜닝'으로 발음하며, 강조되는 음절에 유의해야 합니다.
  • "assistant" - '어시스턴트'라고 발음할 때 R과 T 사이의 연결음이 자연스럽게 이어지도록 연습하세요.
  • "sycophancy" - 이 단어는 흔히 발음하기 어려운 편입니다. '시커팬시'로 발음할 때는 느린 속도로 연습해 보세요.

이러한 발음 함정을 피하는 것은 영어 발음 교정에 중요하며, 반복 연습을 통해 자연스럽게 말할 수 있도록 하세요.

쉐도잉이란? 영어 실력을 빠르게 키우는 과학적 방법

쉐도잉(Shadowing)은 원래 전문 통역사 훈련을 위해 개발된 언어 학습 기법으로, 다언어 학자인 Dr. Alexander Arguelles에 의해 대중화된 방법입니다. 핵심 원리는 간단하지만 매우 강력합니다: 원어민의 영어를 들으면서 1~2초의 짧은 지연으로 즉시 소리 내어 따라 말하는 것——마치 '그림자(shadow)'처럼 화자를 따라가는 것입니다. 문법 공부나 수동적인 청취와 달리, 쉐도잉은 뇌와 입 근육이 동시에 실시간으로 영어를 처리하고 재현하도록 훈련합니다. 연구에 따르면 이 방법은 발음 정확도, 억양, 리듬, 연음, 청취력, 말하기 유창성을 크게 향상시킵니다. IELTS 스피킹 준비와 자연스러운 영어 소통을 원하는 분들에게 특히 효과적입니다.

커피 한 잔 사주기