Xi Jinping과 Joe Biden 모두의 마음에 있는 순간의 주제입니다 . 블라디미르 푸틴은 2017년 인공지능 분야를 주도하는 나라가 세계를 지배하는 나라가 될 것이라고 말한 바 있다. 역사는 적어도 크렘린의 주인의 의도가 얼마나 호전적인지 보여 주었고 이제 인공 지능의 발전을 무시하는 것이 불가능합니다.
공간 관찰 및 신소재 개발을 용이하게 하고 단백질 접힘 및 기타 의학적 진보를 시각적으로 표현할 수 있을 뿐만 아니라 현재 사건에서 영감을 받은 시각 자료의 확산으로 더 정확한 현실을 볼 수 있습니다. 1956년 다트머스 회의에서 "인공 지능"이라는 용어가 등장한 이후 아마도 가장 극적인 상승일 것입니다.
이론적으로 Yann LeCun과 Yuval Noah Harari는 완전히 반대입니다. 하나는 연구원이고 다른 하나는 역사가입니다. 전자는 이 학문의 출현에 대해 당황할 이유가 없다고 보는 반면, 후자는 그것이 우리 문명의 붕괴로 이어질 것을 두려워합니다.
Yuval Noah Harari 는 ChatGPT 채택을 가속화한 언어 모델인 GPT-4보다 더 강력한 도구 개발을 6개월 동안 중단할 것을 요구하는 싱크 탱크 The Future of Life가 약 30,000명의 연구원과 함께 시작한 공개 서한에 서명했습니다.
기록적인 시간에 Yann LeCun은이 호소에서 종말론 자의 외침만을 보았습니다.
Le Point 가 제안한 회의는 뉴욕과 예루살렘 간의 화상 회의를 통해 열렸습니다. 그는 Meta의 AI 연구 책임자, Turing Award 수상자(컴퓨터 과학 분야의 노벨상에 해당), When the machine learn: The Revolution of Artificial Neuron and Deep Learning ( Odile Jacob )의 저자를 허용했습니다. 베스트 셀러 Sapiens 작가가 AI의 약속, 위험 및 미래에 대한 견해를 비교합니다. 스포일러: 우리는 그들이 동의하도록 할 수 없었습니다.
Le Point : 우선 지능에 대한 당신의 정의는 무엇입니까?
Yann LeCun: 지능이란 상황을 인식하고 대응을 계획한 다음 목표를 달성하기 위한 방식으로 행동할 수 있음을 의미합니다. 따라서 상황을 추구하고 일련의 행동을 계획할 수 있습니다.
유발 노아 하라리 : 지능은 문제를 해결하는 능력이다. 음식을 찾는 단세포 유기체에서 달로 날아가는 방법을 발견하는 인간에 이르기까지, 그것이 바로 지능입니다. 그것은 의식과 같지 않습니다. 인간의 경우에는 서로 혼합되어 있습니다. 의식은 사물, 고통, 기쁨, 사랑, 증오를 느끼는 능력입니다. 우리 인간은 때때로 의식을 사용하여 문제를 해결하지만 필수적인 요소는 아닙니다. 식물이나 미생물처럼 많은 유기체가 의식 없이 문제를 해결합니다. 기계도 지능이 있고 감정 없이도 문제를 해결할 수 있습니다.
Yann LeCun : 아직은 아니지만 일어날 것입니다.
언제? 5년, 10년 안에?
Yann LeCun : 시간이 얼마나 걸릴지 예측하기가 매우 어렵습니다. 하지만 적어도 인간만큼 지능적인 기계를 갖게 될 것이라는 점에는 의문의 여지가 없습니다. 계획하고 목표를 설정할 수 있는 능력이 있다면 감정과 동등한 능력도 갖게 될 것입니다. 감정은 결과에 대한 기대일 뿐이기 때문입니다. 어떤 일이 일어날지 예측할 수 있어야 합니다. 결과가 좋든 나쁘든 계획할 수 있는 능력이 필요하며 이것이 감정의 주요 원인입니다. 인간으로서 우리는 어떤 상황이 위험할 것이라고 예상하면 두려움을 느끼고 위험한 상황을 피하기 위해 다양한 옵션을 탐색하도록 동기를 부여합니다. 기계가 이것을 할 수 있다면 그들은 감정을 갖게 될 것입니다.
유발 노아 하라리: 가능하지만 불가피하지는 않습니다. 나는 단순히 감정을 가질 수 있는 능력으로 의식을 정의합니다. 즐거움을 느낄 수 있게 되면 의식이 있는 것입니다. 자의식은 다른 것입니다. 감정을 느낀다는 사실을 반성하는 능력입니다. 그리고 우리는 시간의 아주 작은 부분만 자의식을 가지고 있습니다. 이 정의에 따르면 기계가 의식을 얻거나 감정을 갖게 되는 것은 전적으로 가능하다고 생각합니다. 그러나 불가피한 것은 아닙니다. 기계는 다른 진화 경로를 따라 진행 중일 수 있습니다. 포유류와 조류뿐만 아니라 인간의 진화에서 의식과 지능은 서로 밀접한 관련이 있으며 감정을 가짐으로써 문제를 해결합니다. 그러나 지능의 진화를 위한 다른 경로가 있을 수 있습니다. 그것은 인간의 지능보다 우월할 수 있고 여전히 어떤 감정도 포함하지 않을 수 있습니다. 체스나 바둑처럼 한정된 분야에서는 이미 그렇죠. 알파고가 이겨서 기뻐하면서도 이 좁은 분야에서 인간보다 똑똑하다고 생각하는 사람은 아무도 없을 것 같아요. 어쩌면 일반적인 인공지능으로도 우리를 훨씬 능가하는 지능을 가지면서도 아무런 감정도 느끼지 못할 수도 있다.
Yann LeCun : 우리가 지능적이라고 인정하는 많은 시스템이 분명히 있을 것입니다. 바둑 선수나 자동차를 운전하는 시스템을 보면 이미 존재합니다. 그들은 감정이 없지만 궁극적으로 시스템이 어느 정도의 자율성을 갖고 목표를 달성하려고 시도함으로써 작동하기를 원한다면 그 시스템은 아마도 감정과 동등한 것을 가질 것입니다. 특정 작업 시퀀스에 대한 결과가 어떻게 될지 미리 예측합니다.
언어를 재전유한 ChatGPT가 우리의 민주주의와 신념에 위험하다고 말할 수 있습니까?
얀 르쿤: 현재로서는 위험하다고 생각하지 않지만 그럴 수 있는 이유는 닫혀 있어서 사람들이 이해할 수 없고 연구자들이 연구할 수 없기 때문입니다. 제 생각에는 대규모 언어 모델을 발전시키는 방법은 공개하는 것입니다. 그리고 오늘날 전 세계적으로 오픈 소스 증거를 생성하기 위한 수많은 노력을 볼 수 있습니다. 이것은 경제적인 관점뿐만 아니라 안전의 관점에서도 좋은 생각입니다. 또한 연구의 진행과 이러한 것들이 올바르게 작동하고 좋은 조종 가능한 제어를 만드는 방법에 대한 정확한 이해를 위해. 그러나 배포 측면에서는 사회에 배포되는 제품이 긍정적인 영향을 미치도록 하기 위한 규제가 필요합니다. 그리고 이것은 모든 기술에 대해 동일합니다. 당신은 그것을 시장에 내놓았습니다. 일부 인증 프로세스를 거쳐야 하며 관련 규정이 있습니다. 하지만 모든 사람이 지능형 에이전트를 통제하는 미래를 상상하는 사람이 있다면 모든 사람이 자신보다 더 똑똑한 직원을 두고 일하는 것과 같습니다. 전 산업 관리자이자 대학 교수로서 저는 저보다 똑똑한 사람들과만 일하려고 노력합니다. 이것이 성공을 위한 좋은 길입니다.따라서 사람들은 위협을 느끼지 않아야 합니다 . 당신의 자동차가 당신보다 더 강력하듯이, 모든 사람이 보다 효율적이고 생산적이며 창의적이 되도록 해주는 지능형 기계 직원을 통해 권한을 부여받는 미래를 상상해 보십시오. 이것이 제가 새로운 르네상스, 기본적으로 새로운 계몽주의를 가져올 것이라고 생각하는 이유입니다.
유발 노아 하라리 : 문제는 누구의 손에 있는가? 그것은 잠재적으로 훌륭할 수 있지만 잘못된 손에 들어가면 민주주의를 파괴할 수 있습니다. 민주주의는 사람들 사이의 대화이기 때문에 어떤 인간보다 대화를 더 잘 할 수 있는 에이전트가 있다면 어떻게 될까요?무책임하거나 나쁜 행위자에게 서비스를 제공합니다. AI가 완벽하게 수행할 수 있는 사람들 간의 대화가 해킹되거나 하이재킹되면 민주주의 시스템의 기반이 파괴됩니다. 온라인에서 누군가와 대화하고 있는데 그것이 인간인지 AI 봇인지 모른다고 상상해 보십시오. 그리고 10년 전 소셜 미디어에서 우리는 관심을 끌기 위한 군비 경쟁을 보았던 것처럼 이제는 친밀함을 위한 군비 경쟁을 볼 수 있습니다. 친밀감은 관심보다 훨씬 더 강력합니다. 누군가가 당신의 AI를 신뢰하게 할 수 있다면, 어떤 질문이 있어도 Google 에 가지 않아도 됩니다.검색하려면(Google이 위협을 느끼는 이유입니다), AI에게 물어보세요. 신문이 필요하지 않은 이유는 '내가 왜 신문을 읽어야 하느냐, 내 AI에게 새로운 소식을 알려달라고 했을 뿐!'이기 때문입니다. 그리고 95%의 시간 동안 그것은 정말로 당신에게 최선의 이익을 제공하고 당신은 그것을 신뢰하는 법을 배우고 당신은 이 독립체와 매우 깊은 관계를 가지고 있다고 가정해 봅시다. 그리고 때때로 그것은 당신의 정치적 견해를 특정 방향으로 돌립니다. 이것이 그것을 만들고 운영하는 사람들이 제시한 방향이기 때문입니다. 우리는 이러한 위험에 대비해야 합니다. 이전에 추천 알고리즘으로 보았던 것과 같이 모든 것에 대한 사람들의 견해를 바꾸는 것은 그러한 AI의 힘에 비하면 아무것도 아닙니다.
Yann LeCun : 또 다른 질문은 이것을 처리하는 적절한 방법이 무엇입니까? 미래에는 모든 사람들이 주로 지능형 에이전트를 통해 디지털 세계와 상호 작용할 것입니다. 영화 ' Her '는 미래에 일어날 수 있는 일을 잘 보여줍니다. 그리고 그러한 AI 시스템의 설계나 이를 제어하는 사람들이 의도하지 않은 경우 매우 나쁜 일이 발생할 수 있습니다. 하지만 그 세계에 대한 올바른 비유는 Wikipedia 라고 생각합니다.. 사람들은 Wikipedia를 신뢰합니다. 이러한 의견을 견제하기 위해 많은 편집 작업이 필요합니다. 그래서 그것을 윤리적으로 할 수 있는 방법이 있고 우리가 끝내는 것은 수백만 명의 사람들이 발명한 위키백과 같은 것입니다. 그리고 그것이 의미하는 바는 미래의 AI 시스템은 기본적으로 함께 일하는 수십억 명의 사람들에 의해 크라우드 소싱되어야 한다는 것입니다. 그것이 그것을 할 수 있는 유일한 방법이고, 그것이 그것이 열려야만 하는 이유입니다. 그래서 저는 미래에 폐쇄적이고 단일 회사가 소유한 AI 시스템을 갖게 될 것이라고 생각하지 않습니다. 시스템이 잘못될 수 있는 방법이 많기 때문입니다.
절반의 시간 동안 환각을 일으키는 것 보다 95% 정확한 지능형 비서가 있는 것이 더 위험한가요 ?
얀 르쿤 : 현재 시스템은 실제로 매우 신뢰할 수 없습니다. 그래서 그들은 글쓰기 조수로서 매우 훌륭하지만 신뢰할 수 있는 정보원으로서는 아닙니다. 이제 앞으로 몇 년 동안 일어날 일은 시스템의 기본 설계가 더 직접적으로 조정 가능하고 제어 가능하며 필요한 경우 사실에 입각한 시스템을 만들기 위해 변경된다는 것입니다. . 당신은 그들이 당신에게 이야기를 들려주거나 시를 쓰길 원하죠, 그렇죠? 이것은 향후 2년에서 5년 동안 많은 진전을 이룰 것입니다. 따라서 결국 이러한 시스템은 다른 정보 검색 방법보다 더 신뢰할 수 있습니다. 그리고 그것은 자율 주행 및 운전 지원과 약간 비슷할 것입니다. 현재 자동차용 운전 보조 시스템을 사용할 수 있습니다. 그들은 고속도로에서 어느 정도 신뢰할 수 있습니다. 그러나 모든 곳에서 그런 것은 아니며 항상 손을 운전대에 올려놓아야 합니다. 현재 자동 회귀 대규모 언어 모델에서는 바보 같은 말을 할 수 있기 때문에 항상 키보드에 손을 대고 있어야 합니다. 그들은 역류할 수 있는 엄청난 양의 사실적 지식을 축적한 것처럼 보이지만 우리가 사람들에게 기대하는 유형의 상식을 가지고 있지 않습니다. 그러나 그것은 자동차와 같을 것입니다. 사람들은 자동차가 인간보다 훨씬 더 신뢰할 수 있을 때 완전 자율 자동차를 받아들일 것입니다. 그들은 역류할 수 있는 엄청난 양의 사실적 지식을 축적한 것처럼 보이지만 우리가 사람들에게 기대하는 유형의 상식을 가지고 있지 않습니다. 그러나 그것은 자동차와 같을 것입니다. 사람들은 자동차가 인간보다 훨씬 더 신뢰할 수 있을 때 완전 자율 자동차를 받아들일 것입니다. 그들은 역류할 수 있는 엄청난 양의 사실적 지식을 축적한 것처럼 보이지만 우리가 사람들에게 기대하는 유형의 상식을 가지고 있지 않습니다. 그러나 그것은 자동차와 같을 것입니다. 사람들은 자동차가 인간보다 훨씬 더 신뢰할 수 있을 때 완전 자율 자동차를 받아들일 것입니다.
따라서 인간이 모든 의사 결정 권한을 기계에 포기하는 것을 볼 위험이 있습니다. 당신은 그것을 두려워합니까?
Yann LeCun : 우리는 이미 대부분의 결정이 기계에 의해 이루어지는 세상에 살고 있습니다. 그러나 그것들은 그다지 중요한 결정이 아닙니다. 검색 엔진에서 검색을 수행할 때 정보가 표시되는 순서는 알고리즘에 의해 결정됩니다. 다른 언어를 사용하는 친구와 대화할 때 번역되어 완벽하지는 않지만 유용할 수 있습니다. 모든 도구는 좋은 일과 나쁜 일에 사용될 수 있으며 유용한 일을 위해 사용합니다. 우리는 칼을 사용하여 요리하고 죽일 수 있습니다. 결국 알고리즘이 무엇을 하는지 결정하는 것은 항상 사용자입니다. 이러한 알고리즘은 사용자의 요구에 따라 자동으로 적응하기 때문입니다.
유발 노아 하라리: 칼이 아니다 : 칼은 사람을 죽일지, 수술 중 생명을 구할지 결정할 수 없다. 결정은 항상 인간의 손에 달려 있습니다. AI는 잠재적으로 의사 결정에서 우리를 대체할 수 있는 첫 번째 도구입니다. 그리고 우리가 실수할 가능성이 높기 때문에 여기서 위험은 상당합니다. 그리고 이것은 우리가 배울 시간이 없을 수도 있는 수준의 실수일 수 있습니다. 20세기에 인간은 새로운 산업 기술을 개발했습니다. 우리는 좋은 산업 사회를 건설하는 방법을 몰랐습니다. 따라서 우리는 산업 사회를 건설하는 방법에 대해 몇 가지 끔찍한 실수를 저질렀고 끔찍하게 실패한 실험을 했습니다. 나치즘과 공산주의는 실패한 실험이었다. 두 차례의 세계 대전은 끔찍한 실수였습니다. 수억 명의 삶을 파괴한 후 우리는 이러한 실수로부터 배웠고 결국 더 나은 산업 사회를 건설하는 방법을 배웠습니다. 그러나 21세기의 신기술로 인공지능을 기반으로 한 전체주의 체제를 구축하거나 제3차 세계대전을 일으키는 등의 실수를 반복한다면 되돌릴 수 없을지도 모릅니다. 우리가 20세기에 살아남은 유일한 이유는 기술이 우리를 파괴할 만큼 강력하지 않았기 때문입니다. 21세기의 기술은 훨씬 강력합니다. 우리가 현재 기술로 같은 종류의 실수를 저지른다면 그 실수로부터 교훈을 얻지 못하고 살아남지 못할 가능성이 높습니다. 21세기의 기술은 훨씬 강력합니다. 우리가 현재 기술로 같은 종류의 실수를 저지른다면 그 실수로부터 교훈을 얻지 못하고 살아남지 못할 가능성이 높습니다. 21세기의 기술은 훨씬 강력합니다. 우리가 현재 기술로 같은 종류의 실수를 저지른다면 그 실수로부터 교훈을 얻지 못하고 살아남지 못할 가능성이 높습니다.
Yann LeCun : 역사상 모든 기술 혁명에 대해서도 마찬가지입니다. 인쇄술은 16세기 초 종교 분열로 유럽 사회를 파괴했지만 동시에 계몽주의, 합리주의, 과학, 철학, 민주주의를 가져왔습니다.
유발 노아 하라리 : 인쇄기는 계몽주의를 부추겼지만 유럽 제국주의와 종교 전쟁도 일으켰습니다. 하지만 인류를 완전히 멸망시킬 만큼 강력하지는 않았습니다. AI는 충분히 강력합니다. 16세기 프랑스에서 프로테스탄트와 카톨릭 사이처럼 종교 전쟁이 또 일어난다면 AI와 핵폭탄으로 인류는 살아남지 못할 것 같습니다. 위험은 AI가 민주주의의 기반을 파괴하고 소련보다 훨씬 더 극단적인 새로운 디지털 독재를 만들 수 있다는 것입니다.
따라서 인간이 모든 의사 결정 권한을 기계에 포기하는 것을 볼 위험이 있습니다. 당신은 그것을 두려워합니까?
Yann LeCun : 우리는 이미 대부분의 결정이 기계에 의해 이루어지는 세상에 살고 있습니다. 그러나 그것들은 그다지 중요한 결정이 아닙니다. 검색 엔진에서 검색을 수행할 때 정보가 표시되는 순서는 알고리즘에 의해 결정됩니다. 다른 언어를 사용하는 친구와 대화할 때 번역되어 완벽하지는 않지만 유용할 수 있습니다. 모든 도구는 좋은 일과 나쁜 일에 사용될 수 있으며 유용한 일을 위해 사용합니다. 우리는 칼을 사용하여 요리하고 죽일 수 있습니다. 결국 알고리즘이 무엇을 하는지 결정하는 것은 항상 사용자입니다. 이러한 알고리즘은 사용자의 요구에 따라 자동으로 적응하기 때문입니다.
유발 노아 하라리: 칼이 아니다 : 칼은 사람을 죽일지, 수술 중 생명을 구할지 결정할 수 없다. 결정은 항상 인간의 손에 달려 있습니다. AI는 잠재적으로 의사 결정에서 우리를 대체할 수 있는 첫 번째 도구입니다. 그리고 우리가 실수할 가능성이 높기 때문에 여기서 위험은 상당합니다. 그리고 이것은 우리가 배울 시간이 없을 수도 있는 수준의 실수일 수 있습니다. 20세기에 인간은 새로운 산업 기술을 개발했습니다. 우리는 좋은 산업 사회를 건설하는 방법을 몰랐습니다. 따라서 우리는 산업 사회를 건설하는 방법에 대해 몇 가지 끔찍한 실수를 저질렀고 끔찍하게 실패한 실험을 했습니다. 나치즘과 공산주의는 실패한 실험이었다. 두 차례의 세계 대전은 끔찍한 실수였습니다. 수억 명의 삶을 파괴한 후 우리는 이러한 실수로부터 배웠고 결국 더 나은 산업 사회를 건설하는 방법을 배웠습니다. 그러나 21세기의 신기술로 인공지능을 기반으로 한 전체주의 체제를 구축하거나 제3차 세계대전을 일으키는 등의 실수를 반복한다면 되돌릴 수 없을지도 모릅니다. 우리가 20세기에 살아남은 유일한 이유는 기술이 우리를 파괴할 만큼 강력하지 않았기 때문입니다. 21세기의 기술은 훨씬 강력합니다. 우리가 현재 기술로 같은 종류의 실수를 저지른다면 그 실수로부터 교훈을 얻지 못하고 살아남지 못할 가능성이 높습니다. 21세기의 기술은 훨씬 강력합니다. 우리가 현재 기술로 같은 종류의 실수를 저지른다면 그 실수로부터 교훈을 얻지 못하고 살아남지 못할 가능성이 높습니다. 21세기의 기술은 훨씬 강력합니다. 우리가 현재 기술로 같은 종류의 실수를 저지른다면 그 실수로부터 교훈을 얻지 못하고 살아남지 못할 가능성이 높습니다.
Yann LeCun : 역사상 모든 기술 혁명에 대해서도 마찬가지입니다. 인쇄술은 16세기 초 종교 분열로 유럽 사회를 파괴했지만 동시에 계몽주의, 합리주의, 과학, 철학, 민주주의를 가져왔습니다.
유발 노아 하라리 : 인쇄기는 계몽주의를 부추겼지만 유럽 제국주의와 종교 전쟁도 일으켰습니다. 하지만 인류를 완전히 멸망시킬 만큼 강력하지는 않았습니다. AI는 충분히 강력합니다. 16세기 프랑스에서 프로테스탄트와 카톨릭 사이처럼 종교 전쟁이 또 일어난다면 AI와 핵폭탄으로 인류는 살아남지 못할 것 같습니다. 위험은 AI가 민주주의의 기반을 파괴하고 소련보다 훨씬 더 극단적인 새로운 디지털 독재를 만들 수 있다는 것입니다.
딥페이크, 민주주의가 위험하다? 그리고 그것이 일시 중지를 정당화합니까?
Yann LeCun : 기계에 의한 인간 지능의 증폭은 AI 덕분에 과학, 기술, 의료 및 사회적 진보의 가속화로 추진되는 새로운 르네상스 또는 새로운 계몽의 시대를 가능하게 할 것입니다. 연구 속도를 늦추거나 일시 중지하는 것이 위험을 일시 중지한다고 생각하지 않기 때문에 유용하지 않다고 생각합니다.. 위험을 멈추려면 거짓된 몇 가지 가정을 해야 합니다. 슈퍼 인텔리전스 시스템을 켜는 순간 그것이 세상을 장악할 것이라는 생각입니다. 말도 안돼. 오픈 월드에 대규모 AI 시스템을 배치하려면 이에 대해 매우 주의해야 합니다. 정부와 대중의 감시하에 천천히 해야 합니다. 지난 수십 년 동안 사회의 몰락은 부분적으로 정부가 느리게 반응한다는 사실 때문이라고 생각합니다. 몇 년 전, Facebook은 전 세계의 다양한 자유 민주주의 정부에 "소셜 네트워크에서 허용되는 콘텐츠가 무엇인지 정의해 주세요"라고 요청했습니다. 우리는 무엇이 허용 가능한 콘텐츠를 구성하는지 사회를 위해 결정할 정당성이 없다고 생각하기 때문입니다. 우리는 네오나치 선전을 중단해야 합니까? 예를 들어 유럽에서 불법이기 때문에 해야 하는 홀로코스트 부정론을 중단해야 합니까? 답은 귀뚜라미였습니다. 트럼프 행정부는 "여기에 수정헌법 제1조가 있으므로 당신은 스스로 결정하라"고 말했습니다. 세계에서 유일하게 응답한 정부는 실제로 앉아서 이 문제를 논의한 프랑스의 마크롱 정부였습니다. 법은 나오지 않았지만 무엇이 적절한 콘텐츠를 구성하는지 정의하는 적절한 방법이 무엇인지에 대한 논의가 있었습니다. 언론의 자유와 민주주의 보존 사이의 올바른 절충점을 결정해야 하기 때문에 매우 어려운 일입니다. 결정해야 할 것은 민주적 시스템이라고 생각합니다. 트럼프 행정부는 "여기에 수정헌법 제1조가 있으므로 당신은 스스로 결정하라"고 말했습니다. 세계에서 유일하게 응답한 정부는 실제로 앉아서 이 문제를 논의한 프랑스의 마크롱 정부였습니다. 법은 나오지 않았지만 무엇이 적절한 콘텐츠를 구성하는지 정의하는 적절한 방법이 무엇인지에 대한 논의가 있었습니다. 언론의 자유와 민주주의 보존 사이의 올바른 절충점을 결정해야 하기 때문에 매우 어려운 일입니다. 결정해야 할 것은 민주적 시스템이라고 생각합니다. 트럼프 행정부는 "여기에 수정헌법 제1조가 있으므로 당신은 스스로 결정하라"고 말했습니다. 세계에서 유일하게 응답한 정부는 실제로 앉아서 이 문제를 논의한 프랑스의 마크롱 정부였습니다. 법은 나오지 않았지만 무엇이 적절한 콘텐츠를 구성하는지 정의하는 적절한 방법이 무엇인지에 대한 논의가 있었습니다. 언론의 자유와 민주주의 보존 사이의 올바른 절충점을 결정해야 하기 때문에 매우 어려운 일입니다. 결정해야 할 것은 민주적 시스템이라고 생각합니다. 적절한 콘텐츠를 구성하는 것이 무엇인지 정의하는 적절한 방법이며 표현의 자유와 민주주의 보존 사이의 올바른 절충점을 결정해야 하기 때문에 수행하기가 매우 어렵습니다. 결정해야 할 것은 민주적 시스템이라고 생각합니다. 적절한 콘텐츠를 구성하는 것이 무엇인지 정의하는 적절한 방법이며 표현의 자유와 민주주의 보존 사이의 올바른 절충점을 결정해야 하기 때문에 수행하기가 매우 어렵습니다. 결정해야 할 것은 민주적 시스템이라고 생각합니다.
유발 노아 하라리 : 방금 말씀하신 것은 사회에 시간이 필요하다는 것을 보여줍니다. 민주당 정부는 요청의 중요성과 소셜 미디어의 영향을 이해하지 못했기 때문에 귀하의 요청에 응답하지 못했습니다. 이제 그들이 이해했으므로 반응이 다릅니다. 인간 사회, 특히 민주주의에서는 변화를 이해하고 결정하는 데 수십 년이 걸리는 것이 일반적입니다. 이것이 우리에게 더 많은 시간이 필요한 이유입니다. 우리는 이제 이러한 새로운 AI 도구를 출시하고 사회가 정치, 심리학, 경제에 미치는 영향을 이해하는 데 몇 년이 걸릴 것입니다. 우리는 사회가 위험을 식별하고 이에 대해 무엇을 할 것인지 결정할 수 있도록 속도를 늦춰야 합니다.
Midjourney와 같은 새로운 도구 또는 매우 사실적으로 보이는 새로운 이미지 생성 및 실제처럼 보이는 새 비디오를 만드는 데 도움이 되는 소프트웨어인 Runway를 사용하면 이것이 진실에 대한 새로운 정의입니까? 점점 더 알아보기 어려워지겠죠?
유발 노아 하라리 : 현재의 AI 혁명 이전에도 이미 이 문제가 있었습니다. 사람들, 심지어 주류 정당까지도 더 이상 합의에 도달할 수 없기 때문에 민주적 대화가 무너지고 있습니다. 오늘날 서구 민주주의에는 역설이 있다고 생각합니다. 미국과 같은 국가는 역사상 가장 강력한 정보 기술을 보유하고 있지만 미국인들은 2020년 마지막 선거에서 누가 이겼는지, 백신이 우리에게 도움이 되는지 위험에 처하는지에 대해 동의할 수 없으며 일부는 기후 변화가 진짜인지 의문을 제기하기도 합니다. 이렇게 강력한 정보 기술을 가진 사회가 가장 기본적인 문제에 대해 합의하지 못하는 것처럼 보이는 이유는 무엇입니까?
Yann LeCun : 문제는 이것이 새로운 현상인지 아니면 우리가 지금 통신 기술을 가지고 있다는 사실이 그것을 더 분명하게 만드는 것인지입니다. 몇 년 전 NYU에 있는 제 동료 중 일부는 역겹게 보이는 클릭 베이트를 누가 클릭하는지에 대해 연구했습니다. 대답은 대부분 65세의 사람들이었다. 당신이 조금 더 나이가 많다면 아마도 현대 세계의 진화를 따라가는 데 더 어려움을 겪을 것이고, 당신은 그것에 속을 수 있습니다. 그러나 젊은 세대는 그렇지 않습니다. 인터넷과 함께 자란 세대는 모든 것을 엄청난 양의 소금으로 받아들이고 정보의 출처를 추적하는 보다 체계적인 방법을 가지고 있습니다. 많은 예측이 사람들이 생각하는 방식에 적응한다는 사실을 무시하고 있습니다.
일부 연구자들은 AI의 부상을 인류에 대한 큰 위험으로 보고 있습니다. 우리는 이미 cronrol을 잃고 있습니까?
유발 노아 하라리: 지금은 우리가 통제하고 있지만 가까운 장래에 통제하지 못할 수도 있습니다. 역사적 관점에서 AI는 자체적으로 의사결정을 내릴 수 있는 역사상 최초의 도구입니다. 많은 사람들이 그것을 원자력과 같은 이전의 혁명과 비교합니다. 하지만 원자폭탄은 아닙니다. 원자 폭탄은 원자 폭탄을 사용하는 방법에 대한 결정을 내릴 수 없습니다. AI는 AI를 사용하는 방법에 대한 결정을 내릴 수 있습니다. 예를 들어 페이스북과 함께 해왔습니다. 점점 더 사람들에게 어떤 콘텐츠를 보여줄지 결정하는 알고리즘이 되고 있으며 AI에게 플랫폼에서 트래픽을 최대화하는 목표를 부여하고 증오를 최대화하는 의도하지 않은 결과를 얻는 유명한 정렬 문제가 있습니다. 증오가 참여를 증가시킨다는 것을 AI가 스스로 발견했기 때문입니다. 싫어 소셜 미디어나 그 관리자가 의도적으로 증오를 증가시키라는 지시를 내렸다고 생각하지 않지만, AI는 사용자 참여를 높이는 방법이 증오, 분노, 음모론을 퍼뜨리는 콘텐츠를 퍼뜨리는 것임을 발견했습니다. 그리고 이것은 큰 영향을 미치며, 지금 알고리즘을 변경하더라도 쉽게 되돌릴 수 없습니다. 트럼프는 부분적으로 이러한 알고리즘 때문에 선출되었고 당신은 그를 선출하지 않을 수 없었습니다. 또는 그가 미국 사회와 세계에 가한 모든 변화. 따라서 질문은 다음과 같습니다. 큰 실수를 한 후에 되돌릴 가능성은 얼마나 됩니까? 그리고 이제 또 다른 위험이 있습니다. 이전에는 소셜 미디어 알고리즘이 인간이 만든 콘텐츠만 퍼뜨렸습니다. 이제 AI는 자체적으로 콘텐츠를 생산할 수 있으며, 새로운 아이디어를 창출할 수 있는 최초의 개체입니다. 인쇄기는 책을 쓸 수 없었고, 라디오는 음악을 쓸 수 없지만 AI는 할 수 있습니다. 그래서 우리는 우리에게서 권력을 빼앗을 수 있는 인류 역사상 매우 강력한 완전히 새로운 현상을 다루고 있습니다.
얀 르 쿤: 우선 말씀하신 페이스북이나 소셜네트워크는 2015년 즈음에 정확했을 것입니다. 지금은 그렇지 않습니다. 따라서 실제로 무언가를 배치할 때 효과를 측정하고 효과가 나쁠 경우 수정합니다. 따라서 참여도를 극대화하는 것이 논리적이었고 Facebook을 사용하는 사람들은 결과에 만족하지 않았기 때문에 순위 알고리즘이 완전히 변경되었습니다. 예를 들어 클릭 베이트에 대한 경제 모델을 생성하지 않도록 정보 거품을 방지하는 것과 같은 작업을 수행하기 위해 피드 알고리즘을 완전히 재설계했습니다. 오늘날 소셜 네트워크와 계산 시스템의 맥락에서 흥미로운 점은 AI가 실제로 문제가 아니라 해결책이라는 것입니다. 따라서 소셜 네트워크에서 그의 말을 정확하게 받아 적고 시정 조치를 시도하는 시스템을 원한다면
또한 읽으십시오
선구자 중 한 명인 Geoffrey Hinton이 말하는 AI의 5가지 위험
그래서 우리는 원자력에 대해 가지고 있는 것과 동일한 AI에 대한 규제가 필요할 수 있습니다.
Yann LeCun : 현재 AI 시스템을 만들려면 막대한 리소스가 필요하지만 결국에는 누구나 사용할 수 있습니다. 그래서 그것은 핵무기와 같지 않을 것입니다. 또한 큰 차이점은 인공 지능은 사람을 더 똑똑하게 만들거나 인간의 지능을 강화하도록 설계된 반면 핵무기는 사람을 죽이도록 설계되었다는 것입니다.
Yuval Noah Harari : AI에 대한 좋은 질문입니다. 우리는 AI를 사람을 더 똑똑하게 만들기 위해 설계합니까, 아니면 사람을 통제하기 위해 AI를 설계합니까? 국가에 따라 다릅니다.
Yann LeCun : 일부 국가에서는 아마도 사람들을 통제하도록 설계하고 있을 것입니다. 그러나 이들 국가는 17세기 오스만제국이 인쇄술을 금지함으로써 기술적으로 뒤쳐질 수밖에 없다. 중세에는 이슬람 세계가 과학을 지배하고 있었습니다. 17세기까지 그들은 훨씬 뒤처졌고 그 후로는 더 뒤처졌습니다. AI 생태계에서 스스로를 고립시키고 있는 중국에서도 이런 일이 일어날 수 있다 . 그리고 그들이 이민 통제에 대해 걱정하기 때문에 사람들에게 더 강력한 인공 지능에 접근할 수 없다면 그들도 뒤쳐질 것입니다.
유발 노아 하라리 : 네 말이 맞기를 바라지만 그건 희망사항인 것 같다. 예를 들어 나치는 로켓과 제트기에서 서구보다 훨씬 앞서 있었습니다. 1940년 독일은 경제적 힘의 균형이 프랑스-영국 동맹에 유리했음에도 불구하고 프랑스를 매우 결정적으로 패배시켰습니다. 그래서 저는 민주주의가 항상 승리할 것이라고 성급하게 장담하지 않을 것입니다. 최악의 시나리오를 고려해야 합니다.
AI는 우리가 새로운 재료, 의약품을 만들고 일자리를 창출하는 데 도움을 줄 수 있지만 일자리를 파괴할 가능성도 있습니다 . 펜실베니아 대학의 한 연구 에 따르면 취약한 직업은 요리사나 무용수보다는 수학자나 회계사일 가능성이 가장 높다고 합니다. 사무직이 다른 직종보다 더 위험에 처한 것은 이번이 처음입니다. 창조적인 것보다 잠재적으로 더 파괴적인 힘으로 보십니까?
얀 르쿤 : Stanford의 Erik Brynjolfsson과 같은 경제학자들은 신기술이 일자리를 대체하지만 측정 가능한 방식으로 사람들의 생산성을 높이려면 15년에서 20년이 걸리기는 하지만 사람들의 생산성을 향상시키기도 한다고 말합니다. 기술이 일자리를 대체하지만 우리는 기술이 사람들의 생산성을 높일 수 있도록 만듭니다. 시간당 생산되는 부의 총량은 증가합니다. 기술이 경제에 영향을 미치는 속도는 사람들이 기술을 사용하는 방법을 얼마나 빨리 배울 수 있는지에 따라 제한되기 때문입니다. 따라서 일자리 이동은 사람들이 새로운 기술을 사용하는 방법을 배울 수 있는 속도에 의해 제한됩니다. 따라서 10년 또는 15년이 걸릴 것입니다. 경제의 특정 영역에서 몇 가지 중요한 변화가 있을 것입니다. 어떤 사람들은 재교육을 받아야 할 것입니다. 거기' 미국을 포함하지 않고 서유럽을 포함하는 국가에서 이를 수행하는 방법을 알고 있는 사회 계획이 되어야 합니다. 약간의 혼란이 있을 것이라는 데는 의심의 여지가 없습니다. 그러나 결국 사람들은 일정량의 일에 대해 더 많은 돈을 벌거나 같은 돈에 대해 덜 일하게 될 것입니다.
그래서 지금부터 20년 동안 모든 사람이 직업을 가지고 있고 불평등이 심화되지 않는 것을 보십니까?
Yann LeCun : 식품 생산에 종사하는 사람들의 비율이 60%에서 2%로 증가하면서 산업화가 그랬던 것처럼 새로운 일자리가 만들어지고 오래된 일자리가 사라질 것입니다. 새로운 직업이 나타나고 이전 직업을 대체합니다. 20년 전에 누가 YouTube 비디오, 모바일 앱을 제작하거나 웹사이트 디자이너가 되어 꽤 잘 살 수 있다고 생각했을까요? 그리고 이 부가 사람들에게 어떻게 분배되고 있는지에 대한 질문이 있습니다. 그것은 정치적 질문입니다. 그것은 당신이 누구를 선출하기로 선택하느냐에 달려 있습니다.
유발 노아 하라리: 기존 직업은 사라지고 새로운 직업이 생성됩니다. 하지만 전환 과정이 걱정됩니다. 역사상 전환은 위험합니다. 장기적으로 모든 사람에게 충분한 일자리가 있더라도 과도기에는 많은 사람들이 그 사이에 큰 고통을 겪을 수 있습니다. 독일의 일반적인 사례로 돌아가서, 1929년 위기 이후 독일에는 고실업이 4년밖에 없었습니다. 그리고 우리는 히틀러를 얻었습니다. 그래서 시간이 중요합니다. 그리고 다른 요소는 공간입니다. AI 혁명을 주도하는 선진국은 막대한 이익을 얻을 것이며 인력을 완화하고 재교육할 수 있을 것입니다. 가장 큰 질문은 나머지 세계에서 무슨 일이 일어나는가입니다. 방글라데시와 같이 섬유 산업에 압도적으로 의존하는 나라가 있다면 어떤 일이 벌어질까요? 방글라데시보다 유럽에서 자동으로 셔츠를 생산하는 것이 더 저렴합니까? 수백만 명의 50세 방글라데시 방글라데시 섬유 노동자를 현재 AI 엔지니어로 재교육할 수 있는 자금은 어디에서 얻을 수 있습니까? 그래서 AI가 절대적인 일자리 부족을 야기할 것이라고는 생각하지 않지만, 그 혼란이 정치적으로 극도로 위험할 것 같아 두렵습니다. 그것을 해결하는 것은 불가능하지 않습니다. 미국의 첨단 기술 기업에 세금을 부과하고 그 돈을 방글라데시 섬유 노동자를 재교육하는 데 사용할 수 있지만 미국 행정부가 그런 일을 하는 것을 본 적이 없습니다… 혼란이 정치적으로 극도로 위험할까봐 두렵습니다. 그것을 해결하는 것은 불가능하지 않습니다. 미국의 첨단 기술 기업에 세금을 부과하고 그 돈을 방글라데시 섬유 노동자를 재교육하는 데 사용할 수 있지만 미국 행정부가 그런 일을 하는 것을 본 적이 없습니다… 혼란이 정치적으로 극도로 위험할까봐 두렵습니다. 그것을 해결하는 것은 불가능하지 않습니다. 미국의 첨단 기술 기업에 세금을 부과하고 그 돈을 방글라데시 섬유 노동자를 재교육하는 데 사용할 수 있지만 미국 행정부가 그런 일을 하는 것을 본 적이 없습니다…
또한 읽으십시오
ChatGPT에 대응하기 위한 프랑스 비밀 프로젝트 Mistral
Yann LeCun : 큰 문제이지만 AI와 함께 오는 큰 문제는 아니라고 생각합니다. 과거의 기술 진보의 영향은 거의 동일한 영향을 미쳤습니다.
유발 노아 하라리 : AI는 다른데, 많은 개발도상국의 주요 경제 자산인 값싼 육체 노동의 필요성을 없앨 수 있기 때문입니다.
AI가 인간이 불멸을 달성하는 데 도움이 될 수 있다고 생각하십니까(또는 반대로 인간의 수명을 단축할 수 있습니까?) 우리가 AI만큼 강해질 수 있도록 인간의 두뇌에 칩을 이식하자는 Elon Musk의 제안 에 대해 어떻게 생각하십니까 ?
유발 노아 하라리 : 질문은 : 우리는 인간을 업그레이드하는 능력에 대해 어떻게 생각합니까? 인공 지능이나 뇌-컴퓨터 인터페이스를 사용하여 인간을 "업그레이드"하고 더 오래 살거나 더 강한 기억을 제공하는 것은 매우 위험할 것이라고 생각합니다. 우리 인간은 항상 시스템을 조작할 수 있는 능력과 이러한 시스템을 깊이 이해하는 데 필요한 지혜 사이에 큰 격차로 고통받아 왔습니다. 불행히도 이해하는 것보다 조작하는 것이 훨씬 쉽습니다. 생태계에 미칠 영향을 이해하는 것보다 강 위에 댐을 건설하는 것이 더 쉽습니다. 따라서 우리 인간은 행동의 결과를 이해하기 훨씬 전에 사물을 조작하기 시작합니다. 과거에 우리 인간은 외부 세계를 조작하는 법을 배웠습니다. 우리는 강, 동물, 숲을 통제하는 방법을 배웠습니다. 하지만 생태계의 복잡성을 이해하지 못했기 때문에 우리는 우리의 힘을 오용했습니다. 우리는 생태계의 균형을 잃었고 이제 생태적 붕괴에 직면해 있습니다. 21세기에 우리는 외부 세계뿐만 아니라 내부 세계도 조작하는 법을 배울 수 있습니다. AI 및 유전 공학과 같은 기타 기술을 통해 우리는 몸과 마음을 재설계하고 감정, 생각 및 감각을 조작할 수 있습니다. 그러나 우리는 내면의 정신 체계의 복잡성을 이해하지 못하기 때문에 그 힘을 오용할 수 있습니다. 우리는 몸과 마음의 균형을 잃을 수 있으며 외부의 생태 위기와 병행하여 내부 인간 붕괴에 직면할 수 있습니다. 특히 정부, 기업, 군대는 지능과 규율과 같은 필요한 기술을 향상시키기 위해 새로운 기술을 사용할 가능성이 있는 반면 연민, 예술적 감수성 또는 영성. 그 결과 동정심이 부족하고 예술적 감수성이 부족하고 영적 깊이가 부족한 매우 지적이고 훈련된 인간이 될 수 있습니다. 따라서 우리는 우리가 가지고 있다는 사실조차 깨닫지 못한 채 인간 잠재력의 상당 부분을 잃을 수 있습니다. 실제로 우리는 인간의 마음에 대해 거의 알지 못하기 때문에 인간의 잠재력이 무엇인지 전혀 모릅니다. 그러나 우리는 인간의 마음을 탐구하는 데 거의 투자하지 않고 대신 알고리즘의 힘을 높이는 데 집중합니다. 저는 우리가 AI 개발에 사용하는 모든 비용과 1분을 우리 자신의 마음을 탐구하고 개발하는 데 사용하기를 바랍니다. 따라서 우리는 우리가 가지고 있다는 사실조차 깨닫지 못한 채 인간 잠재력의 상당 부분을 잃을 수 있습니다. 실제로 우리는 인간의 마음에 대해 거의 알지 못하기 때문에 인간의 잠재력이 무엇인지 전혀 모릅니다. 그러나 우리는 인간의 마음을 탐구하는 데 거의 투자하지 않고 대신 알고리즘의 힘을 높이는 데 집중합니다. 저는 우리가 AI 개발에 사용하는 모든 비용과 1분을 우리 자신의 마음을 탐구하고 개발하는 데 사용하기를 바랍니다. 따라서 우리는 우리가 가지고 있다는 사실조차 깨닫지 못한 채 인간 잠재력의 상당 부분을 잃을 수 있습니다. 실제로 우리는 인간의 마음에 대해 거의 알지 못하기 때문에 인간의 잠재력이 무엇인지 전혀 모릅니다. 그러나 우리는 인간의 마음을 탐구하는 데 거의 투자하지 않고 대신 알고리즘의 힘을 높이는 데 집중합니다. 저는 우리가 AI 개발에 사용하는 모든 비용과 1분을 우리 자신의 마음을 탐구하고 개발하는 데 사용하기를 바랍니다.
얀 르쿤: AI가 의학의 발전을 가속화할 것이 확실하며, 우리는 이미 의료 영상 분야에서 이를 목격하고 있습니다. AI는 예를 들어 단백질의 형태 및 다른 단백질과의 상호 작용을 예측함으로써 생명의 생화학적 메커니즘을 이해하는 데 도움을 줍니다. 나는 AI가 인류를 지배하고 제거하는 가장 좋아하는 공상 과학 시나리오를 믿지 않습니다. 미래의 AI는 우리보다 똑똑할 수 있지만 우리를 섬길 것이며 인류를 지배하려는 욕망은 없을 것입니다. 뇌 임플란트에 관해서는 수년 동안 연구가 진행되어 왔습니다. 그들은 특정 시각 및 청각 장애의 치료에 매우 유용하며 특정 마비에 매우 유망합니다. 미래에는 인공 해마를 추가하여 기억 결함을 치료하는 것을 상상할 수 있습니다. 그러나 많은 사람들이 가상 비서와 상호 작용하기 위해 이식되는 것을 받아들일지는 의문입니다.
이 신세계에서 생존하고 번영하려면 자녀에게 무엇을 가르쳐야 합니까?
Yann LeCun : 지식은 유통기한이 깁니다. 예술적이거나 과학적이고 깊은 기술을 요구하는 창의적인 직업을 배우는 것이 더 낫다고 생각합니다. 인간의 본질적인 경험과 의사소통과 관련된 모든 것, 기계로 대체할 수 없기 때문입니다. 당신이 훌륭한 재즈 즉흥 연주자라고 상상해보세요. 마음의 상태를 전달하고 있습니다. 우리는 기계적 또는 전자적 재즈 즉흥 연주를 할 수 있지만 그것들은 무엇을 전달합니까? 예술도 마찬가지입니다. 보기 좋은 예술을 만들 수 있지만 무엇을 소통합니까? 이러한 도구는 인간의 창의성을 증폭시킬 것이지만 인간의 창의성을 쓸모없게 만들지는 않을 것입니다. 더 넓고 더 많은 사람들이 더 쉽게 창의력을 발휘하고 창의력을 발휘할 수 있게 될 것입니다.
또한 읽으십시오
인공지능이 시나리오 작가를 즉흥적으로 만들 때
유발 노아 하라리: 특정 스킬에 베팅하는 것은 위험합니다. 배우는 방법과 평생 동안 계속 변화하는 데 필요한 심리적 도구를 배우는 데 집중하는 것이 가장 좋습니다. 가장 큰 문제는 심리적 문제가 될 것입니다. 고용 시장이 점점 더 불안정해짐에 따라 어떻게 계속 변화하고 자신을 재창조합니까? AI가 들어오면 새로운 직업이 생길 수도 있지만, 새로운 직업도 사라지거나 10년, 20년 안에 극적으로 변합니다. 그리고 다시 자신을 재발견해야 합니다. 그래서 우리는 사람들에게 배우는 방법을 가르쳐야 하고, 변화를 포용할 수 있는 성격을 형성하도록 도와야 합니다. Yann 님이 하시는 일에 행운을 빕니다. 저는 민주주의의 미래가 상당 부분 귀하와 업계의 다른 사람들에게 달려 있다고 생각합니다. 그러니 책임감 있는 일을 잘 해주세요.
Yann LeCun : 이것은 항상 저의 지도 원칙이었습니다.
By: Yann LeCun
이제 영어로 오픈 액세스:
베스트셀러 사피엔스 작가 유발 노아 하라리(Yuval Noah Harari)와 메타 수석 AI 과학자 얀 르쿤(Yann LeCun)의 논쟁.
민주주의의 소멸인가, 계몽주의의 새로운 시대인가?
글쓴이: Grallet Guillaume & Héloïse Pons.

https://www.lepoint.fr/sciences-nature/yuval-harari-sapiens-versus-yann-le-cun-meta-on-artificial-intelligence-11-05-2023-2519782_1924.php#11