ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • AI시대, 빌 게이츠와 샘 올트먼 대화 (1부) = 'Between Bill Gates and Sam Altman (Part 1)'
    생각하는 갈대/세계와 세상 이야기 2024. 1. 25. 03:47

     

    저는 엔터테인먼트 산업의 IT 혁신에 도전하고 있는 배우 캐스팅 플랫폼 '플필'(www.plfil.com)의 류민국 대표라고합니다. 

    많은 사람들이 그렇듯, AI 시대가 인류 문명과 사회를 어떻게 바꿔 나갈지는 저의 큰 관심사 입니다.

    2024년 1월 11일,
    현 AI 시대의 헤게모니를 주도하는 두 인물인 MS와 OpenAI의 리더, 빌 게이츠&샘올트만의 팟캐스트가  빌게이츠의 유튜브에 공개되었습니다.

     

    I am Min-guk You, CEO of "PLFIL" (www.plfil.com), an actor casting platform that challenges IT innovation in the entertainment industry In South Korea.

    Like many others, I am greatly interested in how the age of AI will transform human civilization and society.

    On January 11, 2024, a podcast featuring two leading figures in the current AI era, Bill Gates of Microsoft and Sam Altman of OpenAI, was released on Bill Gates' YouTube channel.

     

    https://www.youtube.com/watch?v=PkXELH6Y2lM

     

    이 대화 전문을 영/한 번역을 해서 한국 독자분들께 공유드립니다. 

    (OpenAI의 Chat GPT 도움을 받았습니다)

     

    I am sharing this conversation with Korean readers, translated into both English and Korean,
    (with the help of OpenAI's Chat GPT.)



     

    Bill Gates: My guest today is Sam Altman. He, of course, is the CEO of OpenAI. He’s been an entrepreneur and a leader in the tech industry for a long time, including running Y Combinator, that did amazing things like funding Reddit, Dropbox, Airbnb. A little while after I recorded this episode, I was completely taken by surprise when, at least briefly, he was let go as the CEO of OpenAI.

    [audio  Teams call initiation] Hey, Sam. Hey, Bill. How are you?(Bill Gates)

     

    빌 게이츠: 오늘 저희 게스트는 샘 알트먼입니다. 그는 물론 OpenAICEO이며 Reddit, Dropbox, Airbnb 같은 놀라운 기업을 자금 지원한 Y Combinator를 운영한 경험이 있는 기술 산업의 기업가이자 리더입니다. 이 에피소드를 녹음한 후 얼마 지나지 않아 OpenAICEO로서 짧은 시간 동안 그가 내보내졌다는 사실에 완전히 놀라웠습니다.

    [오디오 - Teams 콜 시작] 안녕하세요, . // 안녕하세요, . // 어떻게 지내세요?(빌게이츠)

    Sam Altman : Oh, man. It’s been so crazy. I’m all right. It’s a very exciting time.

    샘 올트먼 : , 정말로 엄청난 일이 벌어지고 있습니다. 괜찮아요. 정말로 흥미로운 시기입니다.

     

    Bill Gates: How’s the team doing?
    빌 게이츠:  팀은 어떻게 지내고 있나요?


    Sam Altman: I think, you know a lot of people have remarked on the fact that the team has never felt more productive or more optimistic or better. So, I guess that’s like a silver lining of all of this

    In some sense, this was like a real moment of growing up for us, we are very motivated to become better, and sort of to become a company ready for the challenges in front of us. 

    샘 올트먼 :    많은 사람들이 팀이 이렇게 생산적이고 낙관적이며 좋아지는 느낌을 받았다고 언급했던 것 같아요. 그래서 이 모든 것의 은빛 띠 같은 부분(새옹지마)인 것 같아요.

    어떤 의미에서 이것은 우리에게 있어서 정말로 성장의 순간이었습니다. 우리는 더 나아지기 위해 매우 동기부여되고 앞으로의 도전에 대비할 수 있는 기업이 되기 위해 열심히 노력하고 있습니다

     

    Bill Gates:   [music] So, we won’t be discussing that situation in the conversation; however, you will hear about Sam’s commitment to build a safe and responsible AI. I hope you enjoy the conversation. Welcome to “Unconfuse Me”. I’m Bill Gates.

    빌 게이츠:  [음악] 그래서 이 대화에서는 그 상황에 대해서는 이야기하지 않을 것이지만, 여전히 안전하고 책임감 있는 AI를 만들기 위한 샘의 헌신에 대해 들으실 수 있을 것입니다. 이 대화를 즐기시기 바랍니다. "Unconfuse Me"에 오신 것을 환영합니다. 저는 빌 게이츠입니다.

     

    ---------------------------------------------------------------------------------------------------------------------------------------------------------- ---------------------------------------------------------------------------------------------------------------------------------------------------------- ----------------------------------------------------------------------------------------------------------------------------------------------------------

    Bill Gates: Today we’re going to focus mostly on AI, because it’s such an exciting thing, and people are also concerned. Welcome, Sam. Thank you so much for having me.

    빌 게이츠:  오늘은 주로 AI에 초점을 맞출 것이기 입니다. 그것이 정말로 흥미로운 주제이고, 사람들이 신경쓰는 문제이기 때문입니다. 샘 환영해요.
    초대해 주셔서 정말 감사합니다.(샘 올트먼)

     

    Bill Gates:  I was privileged to see your work as it evolved, and I was very skeptical. I didn’t expect ChatGPT to get so good.

     

    빌 게이츠:   나는 여러분의 작업이 진화되는 과정을 특권적으로 지켜봤으며, 처음에는 매우 회의적이었습니다. 저는ChatGPT가 이렇게 뛰어나게 발전할 것이라고는 기대하지 않았습니다.

     

    Bill Gates: It blows my mind, and we don’t really understand the encoding. We know the numbers, we can watch it multiply, but the idea of where is Shakespearean encoded? Do you think we’ll gain an understanding of the representation?

    빌 게이츠: 정말로 놀랍고, 우리는 코딩을 정말로 이해하지 못합니다. 숫자를 알고 있다면 곱해지는 것을 볼 수 있지만, 셰익스피어가 어디에 코딩되어 있는지에 대한 아이디어는 어디에 있을까요? 우리가 (AI가 하는) 표현(AI가 표현하는 원리를 말하는 듯)을 백퍼센트 이해할 수 있을까요?

     

    Sam Altman:  A hundred percent. Trying to do this in a human brain is very hard. You could say it’s a similar problem, which is there are these neurons, they’re connected. The connections are moving and we’re not going to slice up your brain and watch how it’s evolving, but this we can perfectly x-ray. There has been some very good work on interpretability, and I think there will be more over time. I think we will be able to understand these networks, but our current understanding is low. The little bits we do understand have, as you’d expect, been very helpful in improving these things. We’re all motivated to really understand them, scientific curiosity aside, but the scale of these is so vast.

     

    샘 올트먼 :   100% 가능합니다. 이것을 인간 뇌에서 하려고 하면 매우 어렵습니다. 이것은 연결된 뉴런이 있고, 연결이 움직이고 우리는 당신의 뇌를 썰어서 어떻게 진화하는지 볼 수 없을 것입니다. 그러나 이것은 완벽하게 엑스레이로 볼 수 있습니다. 해석 가능성에 관한 매우 좋은 연구가 있었고, 시간이 지나면 더 많은 연구가 이루어질 것이라고 생각합니다. 우리는 이 네트워크를 이해할 수 있을 것이라고 생각하지만 현재 우리의 이해 수준은 낮습니다. 우리가 조금은 이해하는 부분들은 매우 도움이 되었을 것으로 예상되는데요. 우리는 이것들을 진짜로 이해하고자 하며, 과학적 호기심은 물론이고, 이것들의 규모는 너무나도 방대합니다.

     

    Sam Altman:   We also could say, where in your brain is Shakespeare encoded, and how is that represented? (We don’t know.) We don’t really know, but it somehow feels even less satisfying to say we don’t know yet in these masses of numbers that we’re supposed to be able to perfectly x-ray and watch and do any tests we want to on.

     

    샘 올트먼 :   우리는 또한 셰익스피어가 당신의 뇌 어느 부분에 코딩되어 있고 어떻게 (그러한 예술과 의미가) 표현되는지, ("우리는 모릅니다". - 빌게이츠가 말했다.) 
    우리는 정말로 모른다. 그러나 이러한 (AI에 관한) 대량의 숫자에 대해 "아직 모르겠다"고 말하는 것은 더욱 불만스럽게 느껴집니다. AI에 관해 완벽하게 엑스레이로 볼 수 있고 원하는 어떤 테스트도 수행할 수 있어야 하는 이런 상황에서 말이죠.

     

     

    Bill Gates: I’m pretty sure, within the next five years, we’ll understand it. In terms of both training efficiency and accuracy, that understanding would let us do far better than we’re able to do today

    빌 게이츠: 나는 다음 5년 내에 그것을 이해할 것이 확신합니다. 학습 효율성과 정확도 양면에서, 그 이해는 오늘보다 훨씬 더 나은 결과를 얻을 수 있게 해줄 것입니다.

     

    Sam Altman:  A hundred percent. You see this in a lot of the history of technology where someone makes an empirical discovery. They have no idea what’s going on, but it clearly works. Then, as the scientific understanding deepens, they can make it so much better. Yes, in physics, biology, it’s sometimes just messing around, and it’s like, whoa how does this actually come together?

    샘 올트먼 :   백 퍼센트. 그러할 것입니다. 기술 역사에서 이러한 현상을 많이 볼 수 있습니다. 누군가 경험적인 발견을 하고 있지만 그게 어떻게 작동하는지에 대한 아이디어는 없습니다. 그런 다음 과학적 이해가 깊어짐에 따라 그것에대한 이해를 훨씬 더 개선할 수 있습니다.
    , 맞아요, 물리학, 생물학에서 가끔은 그냥 실험을 하다 보면 ", 이게 어떻게 이렇게 되는 거지?"라고 생각할 때가 있죠.

     

     

    Sam Altman: In our case, the guy that built GPT-1 sort of did it off by himself and solved this, and it was somewhat impressive, but no deep understanding of how it worked or why it worked. Then we got the scaling laws. We could predict how much better it was going to be. That was why, when we told you we could do a demo, we were pretty confident it was going to work. We hadn’t trained the model, but we were pretty confident. That has led us to a bunch of attempts and better and better scientific understanding of what’s going on. But it really came from a place of empirical results first.

     

    샘 올트먼 :  저희 경우 GPT-1을 만든 사람은 혼자서 하기도 하고 문제를 해결하기도 했는데, 그것은 어느 정도 인상적이었지만 어떻게 작동하는지나 왜 작동하는지에 대한 깊은 이해는 없었습니다. 그런 다음 우리는 스케일링 법칙을 얻었습니다. 얼마나 더 나아질 것인지 예측할 수 있었습니다. 그래서 우리가 데모를 할 수 있다고 말했을 때 그게 잘 될 것 같아서 자신 있었죠. 모델을 훈련시키지 않았지만 자신 있었습니다. 그것은 우리를 여러 번 시도하고, 더 나은 과학적 이해를 얻으려는 시도로 이끌었지만, 사실은 경험적 결과(추론)에서 시작된 것입니다.

     

    Bill Gates: When you look at the next two years, what do you think some of the key milestones will be?

     

    빌 게이츠: 다음 두 년 동안(chat gpt에 관해) 어떤 주요 이정표(마일스톤)들이 있을 것으로 보십니까?

    Sam Altman: Multimodality will definitely be important. (Which means speech in, speech out?) Speech in, speech out. Images. Eventually video. Clearly, people really want that. We’ve launched images and audio, and it had a much stronger response than we expected. We’ll be able to push that much further, but maybe the most important areas of progress will be around reasoning ability. Right now, GPT-4 can reason in only extremely limited ways.

     

    샘 올트먼 :   다중 모달성은 분명히 중요할 것입니다. (음성 입력, 음성 출력?)
    음성 입력, 음성 출력. 이미지. 최종적으로 비디오. 까지 말합니다.
    분명히 사람들은 그것을 원합니다. 우리는 이미지와 오디오를 chat gpt로 출시했고, 그 반응은 예상보다 훨씬 강력했습니다.
    우리는
    그것을 훨씬더 발전시키게 될 것이지만 아마 가장 중요한 진전 분야 중 일부는 (AI의)추론 능력 주변일 것입니다.
    현재로서 GPT-4는 극도로 제한적인 방식으로만 추론할 수 있습니다.

     

     

    Sam Altman:   Also reliability. If you ask GPT-4 most questions 10,000 times, one of those 10,000 is probably pretty good, but it doesn’t always know which one, and you’d like to get the best response of 10,000 each time, and so that increase in reliability will be important.

     

    샘 올트먼 :   신뢰성도 중요합니다. GPT-4에게 대부분의 질문을 10,000 번 하면 그 중 하나는 꽤 괜찮을 것이지만, 어느 것이지 가장 좋은 답변인지 항상 알지 못하고,
    당신은
    매 번 10,000개 의 질문마다 최상의 응답을 얻고 싶을것입니다. 그러므로 신뢰성의 향상도 중요할 것입니다.

     

    Sam Altman: Customizability and personalization will also be very important. People want very different things out of GPT-4: different styles, different sets of assumptions. We’ll make all that possible, and then also the ability to have it use your own data. The ability to know about you, your email, your calendar, how you like appointments booked, connected to other outside data sources, all of that. Those will be some of the most important areas of improvement.

     

    샘 올트먼 :  맞춤화와 개인화도 매우 중요할 것입니다. 사람들은 GPT-4에서 매우 다른 것을 원합니다: 다른 스타일, 다른 가정 세트. 우리는 이 모든 것을 가능하게 만들 것이며, 또한 자신의 데이터를 사용할 수 있게 만들 것입니다. 당신에 대해, 당신의 이메일, 달력, 약속을 어떻게 예약하고 싶어하는지, 외부 데이터 소스와 연결된 모든 정보를 알 수 있는 능력도 있을 것입니다. 이것들이 가장 중요한 개선 분야 중 일부가 될 것입니다.

     

    Bill Gates:   In the basic algorithm right now, it’s just feed forward, multiply, and so to generate every new word, it’s essentially doing the same thing.  I’ll be interested if you ever get to the point where, like in solving a complex math equation, you might have to apply transformations an arbitrary number of times, that the control logic for the reasoning may have to be quite a bit more complex than just what we do today. 

    빌 게이츠:  현재의 기본 알고리즘에서는 단순한 전달, 곱셈만 있는데요, 그래서 모든 새로운 단어를 생성할 때 본질적으로 똑같은 작업을 하고 있는 것이라고 볼 수 있습니다. 나는 궁금합니다, 복잡한 수학 문제를 해결하는 것처럼, 특정한 수의 변환을 임의의 횟수 적용해야 할 때, 추론을 제어하는 논리가 오늘보다 훨씬 더 복잡해져야 할 수도 있다는 점입니다.

     

    Sam Altman:  At a minimum, it seems like we need some sort of adaptive compute. Right now, we spend the same amount of compute on each token, a dumb one, or figuring out some complicated math.

    샘 올트먼 :   최소한 어떤 형태의 적응형 컴퓨팅이 필요할 것으로 보입니다. 현재로서 우리는 모든 토큰에 동일한 계산량을 사용하고 있으며, 어떤 것은 바보 같은 토큰에게도 동일한 계산량을 소비하거나 어떤 복잡한 수학을 해결하느냐에 상관없이 동일한 계산량을 사용하고 있습니다.

    Bill Gates:    Yes, when we say, "Do the Riemann hypothesis " That deserves a lot of compute. It’s the same compute as saying, "The."

     

    빌 게이츠:     네, "리만 가설을 풀어라..."라고 말할 때, 그것은 많은 계산량을 필요로 합니다. "그-."라고 하는 것과 동일한 계산량이 필요합니다.

     

     

     

    Sam Altman: Right, so at a minimum, we’ve got to get that to work. We may need much more sophisticated things beyond it.


    샘 올트먼 :   그렇습니다, 최소한 그것을 작동시키는 것이 필요합니다. 더욱 복잡한 것이 필요할 수도 있습니다. 

    Bill Gates: You and I were both part of a Senate Education Session, and I was pleased that about 30 senators came to that, and helping them get up to speed, since it’s such a big change agent. I don’t think we could ever say we did too much to draw the politicians in.
    And yet, when they say, "Oh, we blew it on social media, we should do better,”  that is an outstanding challenge that there are very negative elements to, in terms of polarization. Even now, I’m not sure how we would deal with that.

    빌 게이츠:    우리 둘 다 상원의원 교육 세션에서 역할을 했었는데,
    저는 만족했어요, 약 30명의 상원 의원이 참석했고(AI가 큰 변화 요소이기 때문에)
    AI의 발전 속도에 그들이 맞추기를 돕는 것에
    .

    (그럼에도)
    저는 우리가 AI에 정치인들의 관심을 끌어들이기 위해, 너무 많이 무언가 한 것 같다고 말 할 수는 없다고 생각합니다

    그럼에도 불구하고 그들이 ", 우리는 소셜 미디어(SNS)에서 (적절한 규제에)실패했으니 (이번에는)더 잘해야만 한다"라고 말할 때, 그것은 극단화와 같은 매우 부정적인 측면이 있는 매우 어려운 과제입니다.
    지금조차도, 저는 어떻게 AI 다룰지 확신치 못합니다.

     

    Sam Altman: I don’t understand why the government was not able to be more effective around social media, but it seems worth trying to understand as a case study for what they’re going to go through now with AI.

     

    샘 올트먼 :   나는 정부가 소셜 미디어(SNS) 관련해서 더 효과적으로 행동하지 못한 이유를 이해하지 못하겠습니다.
    그러나 그점은, 정부가 AI에 관해 현재 어떤 어려움을 겪고 있는지의 사례로 이해하는데 가치가 있다고 생각합니다.

     

     

    Bill Gates: It’s a good case study, and when you talk about the regulation, is it clear to you what sort of regulations would be constructed

    빌 게이츠:  분명 그것은 좋은 사례 입니다. 그리고 규제에 대해 얘기할 때, 어떤 종류의 규제가 만들어질지 당신에게는 명확한가요?

     

    Sam Altman: I think we’re starting to figure that out. It would be very easy to put way too much regulation on this space. You can look at lots of examples of where that’s happened before. But also, if we are right, and we may turn out not to be, but if we are right, and this technology goes as far as we think it’s going to go, it will impact society, geopolitical balance of power, so many things, that for these, still hypothetical, but future extraordinarily powerful systems not like GPT-4, but something with 100,000 or a million times the compute power of that, we have been socialized in the idea of a global regulatory body that looks at those super-powerful systems, because they do have such global impact. One model we talk about is something like the IAEA.

     

    샘 올트먼 :   우리는 이를 이해하기 시작하고 있다고 생각합니다. 이 AI 영역에 너무 많은 규제를 부과하는 것은 매우 쉽습니다. 그런 이전 사례를 많이 볼 수 있습니다. 그러나 만약 우리가 옳다면, 우리가 생각한 것처럼 이 기술이 더 나아진다면, 사회, 지정학적 권력 균형, 그리고 그 외에 많은 것들에 영향을 미칠 것입니다.
    여전히 가설인, 하지만 미래의 엄청나게 강력한 시스템 - GPT-4가 아니라 그보다 100,000배나 또는 백만 배나 더 컴퓨터 파워를 갖춘 것 - 에 대해 우리는 세계적인 규제 기구의 사회적인 아이디어를 가지고 있습니다.

    그런 AI 시스템은 전 세계적인 영향을 미치기 때문입니다.

    그러한 규모의 규제 기구를 언급하기 좋은 모델 중 하나는
    IAEA(국제원자력기구, 國際原子力機構)와 같은 것입니다.

     

     

    [2부에 이어서...] → (2부 바로가기)

    [Continuing in Part 2...]  (Go to Part2)

     

     

     

     

    댓글

환영해요, 좋은하루들 되셔요.