Why We’re Unlikely to Get Artificial General Intelligence Anytime Soon

Cade Metz

우리가 곧 범용 인공지능을 얻지 못할 것 같은 이유

케이드 메츠

출처: The New York Times / 2025년 5월 16일

원문 보기

번역: 정성철 cittaa@gmail.com

The titans of the tech industry say artificial intelligence will soon match the powers of humans’ brains. Are they underestimating us?

테크 산업의 거물들은 인공지능이 곧 인간 두뇌의 능력과 맞먹을 것이라고 말한다. 그들이 우리를 과소평가하고 있는 것일까?

 

―――

Cade Metz is a Times reporter who writes about artificial intelligence, driverless cars, robotics, virtual reality and other emerging areas of technology.

케이드 메츠는 인공 지능, 무인 자동차, 로봇 공학, 가상 현실 및 기타 새로운 기술 분야에 대해 글을 쓰는 뉴욕 타임스 리포터이다.

―――

 

 

Sam Altman, the chief executive of OpenAI, recently told President Trump during a private phone call that it would arrive before the end of his administration. Dario Amodei, the chief executive of Anthropic, OpenAI’s primary rival, repeatedly told podcasters it could happen even sooner. The tech billionaire Elon Musk has said it could be here before the end of the year.

OpenAI의 최고 경영자인 샘 알트만은 최근 도널드 트럼프 전 대통령과의 사적인 전화 통화에서 그의 임기 말 이전에 그것이 도래할 것이라고 말했다. OpenAI의 주요 경쟁사인 Anthropic의 최고 경영자인 다리오 아모데이는 팟캐스터들에게 그것이 더 빨리 일어날 수도 있다고 반복해서 말했다. 테크 억만장자인 일론 머스크는 연말 이전에 그것이 등장할 수 있다고 말했다.

 

Like many other voices across Silicon Valley and beyond, these executives predict that the arrival of artificial general intelligence, or A.G.I., is imminent.

실리콘 밸리 안팎의 많은 다른 목소리들과 마찬가지로, 이 경영진들은 범용 인공지능, 즉 A.G.I.의 도래가 임박했다고 예측한다.

 

Since the early 2000s, when a group of fringe researchers slapped the term on the cover of a book that described the autonomous computer systems they hoped to build one day, A.G.I. has served as shorthand for a future technology that achieves human-level intelligence. There is no settled definition of A.G.I., just an entrancing idea: an artificial intelligence that can match the many powers of the human mind.

2000년대 초, 소수의 연구자들 그룹이 언젠가 구축하기를 희망했던 자율적인 컴퓨터 시스템을 설명하는 책 표지에 A.G.I.라는 용어를 사용한 이후, A.G.I.는 인간 수준의 지능을 달성하는 미래 기술의 약칭으로 사용되어 왔다. A.G.I.에 대한 확립된 정의는 없으며, 단지 인간 마음의 다양한 능력들을 따라잡을 수 있는 인공지능이라는 매혹적인 아이디어만 있다.

 

Mr. Altman, Mr. Amodei and Mr. Musk have long chased this goal, as have executives and researchers at companies like Google and Microsoft. And thanks, in part, to their fervent pursuit of this ambitious idea, they have produced technologies that are changing the way hundreds of millions of people research, make art and program computers. These technologies are now poised to transform entire professions.

알트만, 아모데이, 머스크는 구글이나 마이크로소프트와 같은 기업의 경영진들 및 연구자들과 마찬가지로 오랫동안 이 목표를 추구해 왔다. 그리고 부분적으로는 이 야심찬 아이디어에 대한 그들의 열렬한 추구 덕분에, 그들은 수억 명의 사람들이 연구하고, 예술을 창작하고, 컴퓨터를 프로그래밍하는 방식을 변화시키는 기술들을 만들어냈다. 이 기술들은 이제 전체 전문직을 변화시킬 태세이다.

 

But since the arrival of chatbots like OpenAI’s ChatGPT, and the rapid improvement of these strange and powerful systems over the last two years, many technologists have grown increasingly bold in predicting how soon A.G.I. will arrive. Some are even saying that once they deliver A.G.I., a more powerful creation called “superintelligence” will follow.

그러나 OpenAI의 ChatGPT와 같은 챗봇의 등장과 지난 2년간 이 이상하고 강력한 시스템의 급속한 발전 이후, 많은 기술자들은 A.G.I.가 얼마나 빨리 도래할지에 대한 예측에 점점 더 대담해졌다. 일부는 심지어 A.G.I.를 제공하면 “초지능”이라고 불리는 더 강력한 창조물이 뒤따를 것이라고 말하기도 한다.

 

As these eternally confident voices predict the near future, their speculations are getting ahead of reality. And though their companies are pushing the technology forward at a remarkable rate, an army of more sober voices are quick to dispel any claim that machines will soon match human intellect.

이처럼 끈임없이 자신감에 찬 목소리들이 가까운 미래를 예측함에 따라, 그들의 추측은 현실을 앞서가고 있다. 그리고 그들의 회사들이 놀라운 속도로 기술을 발전시키고 있지만, 더 냉정한 목소리를 내는 많은 이들은 기계가 곧 인간의 지능과 맞먹을 것이라는 어떤 주장도 일축한다.

 

“The technology we’re building today is not sufficient to get there,” said Nick Frosst, a founder of the A.I. start-up Cohere who previously worked as a researcher at Google and studied under the most revered A.I. researcher of the last 50 years. “What we are building now are things that take in words and predict the next most likely word, or they take in pixels and predict the next most likely pixel. That’s very different from what you and I do.”

“오늘날 우리가 구축하고 있는 기술은 거기에 도달하기에 충분하지 않다.” 구글에서 연구자로 일했고 지난 50년간 가장 존경받는 A.I. 연구자 밑에서 공부한 A.I. 스타트업 Cohere의 창립자 닉 프로스트는 말했다. “지금 우리가 만들고 있는 것은 단어를 입력받아 다음으로 가장 가능성 있는 단어를 예측하거나, 픽셀을 입력받아 다음으로 가장 가능성 있는 픽셀을 예측하는 것이다. 그것은 당신과 내가 하는 것과는 매우 다르다.”

 

In a recent survey of the Association for the Advancement of Artificial Intelligence, a 40-year-old academic society that includes some of the most respected researchers in the field, more than three-quarters of respondents said the methods used to build today’s technology were unlikely to lead to A.G.I.

해당 분야에서 가장 존경받는 연구자 일부를 포함하는 40년 역사의 학술 단체인 인공지능 발전 협회의 최근 설문 조사에서 응답자의 4분의 3 이상이 오늘날의 기술을 구축하는 데 사용되는 방법들이 A.G.I.로 이어질 가능성은 낮다고 답했다.

 

Opinions differ in part because scientists cannot even agree on a way of defining human intelligence, arguing endlessly over the merits and flaws of I.Q. tests and other benchmarks. Comparing our own brains to machines is even more subjective. This means that identifying A.G.I. is essentially a matter of opinion. (Last year, as part of a high-profile lawsuit, Mr. Musk’s attorneys said it was already here because OpenAI, one of Mr. Musk’s chief rivals, has signed a contract with its main funder saying it will not sell products based on A.G.I. technology.)

의견은 부분적으로는 과학자들이 인간 지능을 정의할 방도에 대해서조차 합의하지 못하기 때문에 다른데, 과학자들은 I.Q 테스트 및 기타 기준들의 장단점에 대해 끊임없이 논쟁한다. 우리 자신의 뇌를 기계와 비교하는 것은 훨씬 더 주관적이다. 이것은 A.G.I.를 식별하는 것이 본질적으로 의견의 문제라는 것을 의미한다. (작년에 세간의 이목을 끈 소송의 일환으로, 머스크의 변호사들은 머스크의 주요 경쟁자 중 하나인 OpenAI가 자신의 주요 자금 제공자와 A.G.I. 기술 기반 제품을 판매하지 않기로 계약했기 때문에 A.G.I.가 이미 있다고 말했다.)

 

And scientists have no hard evidence that today’s technologies are capable of performing even some of the simpler things the brain can do, like recognizing irony or feeling empathy. Claims of A.G.I.’s imminent arrival are based on statistical extrapolations — and wishful thinking.

그리고 과학자들은 오늘날의 기술이 아이러니를 인식하거나 공감을 하는 것과 같이 뇌가 할 수 있는 더 간단한 일 중 일부라도 수행할 수 있다는 확실한 증거를 가지고 있지 않다. A.G.I.의 임박한 도래 주장은 통계적 외삽법과 소망적 사고에 근거한다.

 

According to various benchmark tests, today’s technologies are improving at a consistent rate in some notable areas, like math and computer programming. But these tests describe only a small part of what people can do.

다양한 벤치마크 테스트들에 따르면, 오늘날의 기술은 수학 및 컴퓨터 프로그래밍과 같은 일부 주목할 만한 분야들에서 일관된 속도로 개선되고 있다. 그러나 이 테스트들은 사람들이 할 수 있는 것의 작은 부분만을 기술한다.

 

Humans know how to deal with a chaotic and constantly changing world. Machines struggle to master the unexpected — the challenges, both small and large, that do not look like what has happened in the past. Humans can dream up ideas that the world has never seen. Machines typically repeat or enhance what they have seen before.

인간은 혼란스럽고 끊임없이 변화하는 세상에 어떻게 대처해야 할지 알고 있다. 기계는 예상치 못한 것, 즉 과거에 일어났던 일과 비슷하지 않은 크고 작은 도전들을 숙달하는 데 어려움을 겪는다. 인간은 세상이 한 번도 보지 못한 아이디어들을 생각해 낼 수 있다. 기계는 일반적으로 이전에 본 것을 반복하거나 향상시킨다.

 

That is why Mr. Frosst and other skeptics say pushing machines to human-level intelligence will require at least one big idea that the world’s technologists have not yet dreamed up. There is no way of knowing how long that will take.

이것이 프로스트와 다른 회의론자들이 기계를 인간 수준의 지능으로 끌어올리려면 전 세계 기술자들이 아직 생각해 내지 못한 적어도 하나의 큰 아이디어가 필요하다고 말하는 이유이다. 그것을 생각해 내는 데 얼마나 오래 걸릴지는 알 수 없다.

 

“A system that’s better than humans in one way will not necessarily be better in other ways,” the Harvard cognitive scientist Steven Pinker said. “There’s just no such thing as an automatic, omniscient, omnipotent solver of every problem, including ones we haven’t even thought of yet. There’s a temptation to engage in a kind of magical thinking. But these systems are not miracles. They are very impressive gadgets.”

하버드 인지 과학자 스티븐 핑커는 “한 가지 면에서 인간보다 나은 시스템이 반드시 다른 면에서도 더 나은 것은 아니다”라고 말했다. “우리가 아직 생각지도 못한 문제를 포함하여 모든 문제에 대한 자동적이고, 전지전능하며, 모든 것을 해결하는 해결책 같은 것은 존재하지 않는다. 일종의 마법적 사고에 빠지려는 유혹이 있다. 그러나 이 시스템은 기적이 아니다. 그것은 매우 인상적인 장치다.”

 

‘A.I. Can Get There’

‘A.I.는 거기에 도달할 수 있다

 

Chatbots like ChatGPT are driven by what scientists call neural networks, mathematical systems that can identify patterns in text, images and sounds. By pinpointing patterns in vast troves of Wikipedia articles, news stories and chat logs, for instance, these systems can learn to generate humanlike text on their own, like poems and computer programs.

ChatGPT와 같은 챗봇은 텍스트들, 이미지들 및 소리들에서 패턴을 식별할 수 있는, 과학자들이 신경망이라고 부르는 수학적 시스템에 의해 구동되는데, 예를 들어, 방대한 양의 위키백과 기사들, 뉴스 기사들 및 채팅 로그들에서 패턴을 찾아냄으로써, 이 시스템은 시나 컴퓨터 프로그램과 같이 인간이 생산하는 것과 유사한 텍스트를 스스로 생성하는 법을 배울 수 있다.

 

That means these systems are progressing much faster than computer technologies of the past. In previous decades, software engineers built applications one line of code at time, a tiny-step-by-tiny-step process that could never produce something as powerful as ChatGPT. Because neural networks can learn from data, they can reach new heights and reach them quickly.

그것은 이 시스템이 과거의 컴퓨터 기술보다 훨씬 빠르게 발전하고 있음을 의미한다. 이전 수십 년 동안 소프트웨어 엔지니어들은 한 번에 한 줄의 코드로 애플리케이션을 구축했는데, ChatGPT가 생산하는 것 만큼 강력한 것을 결코 생산할 수 없는 아주 작은 단계별 프로세스였다. 신경망은 데이터로부터 학습할 수 있기 때문에 새로운 높이에 도달하고 빠르게 도달할 수 있다.

 

After seeing the improvement of these systems over the last decade, some technologists believe the progress will continue at much the same rate — to A.G.I. and beyond.

지난 10년 동안 이 시스템의 개선을 본 후, 일부 기술자들은 이 진보가 거의 같은 속도로 계속되어 A.G.I. 및 그 이상의 것으로 이어질 것이라고 믿는다.

 

“There are all these trends where all of the limitations are going away,” said Jared Kaplan, the chief science officer at Anthropic. “A.I. intelligence is quite different from human intelligence. Humans learn much more easily to do new tasks. They don’t need to practice as much as A.I. needs to. But eventually, with more practice, A.I. can get there.”

Anthropic의 최고 과학 책임자인 재러드 캐플런은 “모든 한계가 사라지는 모든 추세가 있다”라고 말했다. “A.I. 지능은 인간 지능과 상당히 다르다. 인간은 새로운 작업을 수행하는 것을 훨씬 쉽게 배운다. A.I.만큼 연습할 필요가 없다. 그러나 결국 더 많은 연습을 통해 A.I.는 거기에 도달할 수 있다.”

 

Among A.I. researchers, Dr. Kaplan is known for publishing a groundbreaking academic paper that described what are now called “the Scaling Laws.” These laws essentially said: The more data an A.I. system analyzed, the better it would perform. Just as a student learns more by reading more books, an A.I. system finds more patterns in the text and learns to more accurately mimic the way people put words together.

A.I. 연구자들 사이에서 캐플런 박사는 현재 “스케일링 법칙”이라고 불리는 것을 설명한 획기적인 학술 논문을 발표한 것으로 알려져 있다. 이 법칙은 본질적으로 A.I. 시스템이 분석하는 데이터가 많을수록 A.I. 시스템의 성능이 향상된다고 말했다. 학생이 더 많은 책을 읽음으로써 더 많이 배우는 것처럼, A.I. 시스템은 텍스트에서 더 많은 패턴을 찾고 사람들이 단어를 조합하는 방식을 더 정확하게 모방하는 법을 배운다.

 

In recent months, companies like OpenAI and Anthropic used up just about all of the English text on the internet, which meant they needed a new way of improving their chatbots. So they are leaning more heavily on a technique that scientists call reinforcement learning. Through this process, which can extend over weeks or months, a system can learn behavior through trial and error. By working through thousands of math problems, for instance, it can learn which techniques tend to lead to the right answer and which do not.

최근 몇 달 동안 OpenAI 및 Anthropic과 같은 회사들은 인터넷상의 거의 모든 영어 텍스트를 사용했는데, 이것은 그들의 챗봇을 개선하는 새로운 방법이 필요하다는 것을 의미했다. 그래서 그들은 과학자들이 강화 학습이라고 부르는 기술에 더 많이 의존하고 있다. 몇 주 또는 몇 달에 걸쳐 진행될 수 있는 이 과정을 통해 시스템은 시행착오를 통해 행동을 배울 수 있다. 예를 들어, 수천 개의 수학 문제를 해결함으로써 어떤 테크닉이 정답으로 이어지는 경향이 있고 어떤 테크닉이 그렇지 않은지 배울 수 있다.

 

Thanks to this technique, researchers like Mr. Kaplan believe that the Scaling Laws (or something like them) will continue. As the technology continues to learn through trial and error across myriad fields, researchers say, it will follow the path of AlphaGo, a machine built in 2016 by a team of Google researchers.

이 기술 덕분에 캐플런과 같은 연구자들은 스케일링 법칙 (또는 그와 유사한 것)이 계속될 것이라고 믿는다. 기술이 무수한 분야에서 시행착오를 통해 계속 학습함에 따라 연구자들은 2016년 구글 연구팀이 만든 기계인 알파고의 경로를 따를 것이라고 말한다.

 

Through reinforcement learning, AlphaGo learned to master the game of Go, a complex Chinese board game that is compared to chess, by playing millions of games against itself. That spring, it beat one of the world’s best players, stunning the A.I. community and the world. Most researchers had assumed that A.I. needed another 10 years to achieve such a feat.

강화 학습을 통해, 알파고는 수백만 번의 게임을 자신을 상대로 해 둠으로써, 체스와 비교되는 복잡한 중국 보드 게임인 바둑을 숙달하는 법을 배웠다. 그해 봄, 알파고는 세계 최고의 선수 중 한 명을 이겼고, A.I. 커뮤니티와 세계를 놀라게 했다. 대다수의 연구자들은 A.I.가 그러한 업적을 달성하는 데 또 다른 10년이 필요하다고 가정했었다.

 

AlphaGo played in ways no human ever had, teaching the top players new strategic approaches to this ancient game. For some, the belief is that systems like ChatGPT will take the same leap, reaching A.G.I. and then superintelligence.

알파고는 어떤 인간도 해본 적이 없는 방식으로 플레이하여, 최고 선수들에게 이 고대 게임에 대한 새로운 전략적 접근 방식을 가르쳤다. 일부에게는 ChatGPT와 같은 시스템이 동일한 도약을 이루어 A.G.I.에, 그리고 그 다음에 초지능에 도달할 것이라는 믿음이 있다.

 

But games like AlphaGo follow a small, limited set of rules. The real world is bounded only by the laws of physics. Modeling the entirety of the real world is well beyond today’s machines, so how can anyone be sure that A.G.I. — let alone superintelligence — is just around the corner?

그러나 알파고와 같은 게임은 일단의 적고 제한된 규칙들을 따른다. 현실 세계는 물리 법칙에 의해서만 제한된다. 현실 세계 전체를 모델링하는 것은 오늘날의 기계를 훌쩍 뛰어넘는 것이다, 그러니 어느 누가 초지능은 말할 것도 없고 A.G.I.가 곧 등장할 것이라고 확신할 수 있을까?

 

The Gap Between Humans and Machines

인간과 기계 사이의 격차

 

It is indisputable that today’s machines have already eclipsed the human brain in some ways, but that has been true for a long time. A calculator can do basic math faster than a human. Chatbots like ChatGPT can write faster, and as they write, they can instantly draw on more texts than any human brain could ever read or remember. These systems are exceeding human performance on some tests involving high-level math and coding.

오늘날의 기계가 이미 어떤 면에서는 인간의 뇌를 능가했다는 것은 반론의 여지가 없지만, 그것은 오랫동안 사실이었다. 계산기는 인간보다 더 빨리 기초 수학을 할 수 있다. ChatGPT와 같은 챗봇은 더 빨리 글을 쓸 수 있으며, 글을 쓰면서 어떤 인간의 두뇌도 읽거나 기억할 수 있는 것보다 더 많은 텍스트를 즉시 참조할 수 있다. 이 시스템은 고급 수학 및 코딩과 관련된 일부 테스트에서 인간의 실력을 초과하고 있다.

 

But people cannot be reduced to these benchmarks. “There are many kinds of intelligence out there in the natural world,” said Josh Tenenbaum, a professor of computational cognitive science at the Massachusetts Institute of Technology.

그러나 사람들을 이 기준치들로 축소될 수 없다. 매사추세츠 공과대학교의 계산인지과학 교수인 조시 테넨바움은 “자연계에는 다양한 종류의 지능이 있다”고 말했다.

 

One obvious difference is that human intelligence is tied to the physical world. It extends beyond words and numbers and sounds and images into the realm of tables and chairs and stoves and frying pans and buildings and cars and whatever else we encounter with each passing day. Part of intelligence is knowing when to flip a pancake sitting on the griddle.

한 가지 분명한 차이점은 인간의 지능이 물리적 세계와 연결되어 있다는 것이다. 그것은 단어와 숫자, 소리, 이미지를 넘어 테이블, 의자, 스토브, 프라이팬, 건물, 자동차 및 우리가 매일 마주치는 모든 것의 영역으로 확장된다. 지능의 일부는 철판 위에 놓인 팬케이크를 언제 뒤집어야 하는지 아는 것이다.

 

Some companies are already training humanoid robots in much the same way that others are training chatbots. But this is more difficult and more time consuming than building ChatGPT, requiring extensive training in physical labs, warehouses and homes. Robotic research is years behind chatbot research.

일부 회사들은 이미 다른 회사들이 챗봇을 훈련시키는 것과 거의 같은 방식으로 인간형 로봇을 훈련시키고 있다. 그러나 이것은 ChatGPT를 구축하는 것보다 더 어렵고 시간이 많이 걸리며, 물리적 실험실, 창고 및 가정에서 광범위한 훈련이 필요하다. 로봇 연구는 챗봇 연구보다 몇 년 뒤쳐져 있다.

 

The gap between human and machine is even wider. In both the physical and the digital realms, machines still struggle to match the parts of human intelligence that are harder to define.

인간과 기계 사이의 격차는 훨씬 더 크다. 물리적 영역과 디지털 영역 모두에서 기계는 여전히 인간 지능의 정의하기 더 어려운 부분을 따라잡는 데 어려움을 겪고 있다.

 

The new way of building chatbots, reinforcement learning, is working well in areas like math and computer programming, where companies can clearly define the good behavior and the bad. Math problems have undeniable answers. Computer programs must compile and run. But the technique doesn’t work as well with creative writing, philosophy or ethics.

챗봇을 구축하는 새로운 방법인 강화 학습은 수학 및 컴퓨터 프로그래밍과 같이 회사가 좋은 행동과 나쁜 행동을 명확하게 정의할 수 있는 영역에서 잘 작동하고 있다. 수학 문제에는 부인할 수 없는 답이 있다. 컴퓨터 프로그램은 컴파일되고 실행되어야 한다. 그러나 이 기술은 창의적인 글쓰기, 철학 또는 윤리에는 잘 작동하지 않는다.

 

Mr. Altman recently wrote on X that OpenAI had trained a new system that was “good at creative writing.” It was the first time, he added, that “I have been really struck by something written by A.I.” Writing is what these systems do best. But “creative writing” is hard to measure. It takes different forms in different situations and exhibits characteristics that are not easy to explain, much less quantify: sincerity, humor, honesty.

알트만은 최근 X에 OpenAI가 “창의적인 글쓰기에 능숙한” 새로운 시스템을 훈련시켰다고 썼다. 그는 “AI가 쓴 글에 정말 감명받은 것은 처음”이라고 덧붙였다. 글쓰기는 이 시스템이 가장 잘하는 것이다. 그러나 “창의적인 글쓰기”는 측정하기 어렵다. 그것은 다른 상황에서 다른 형태를 취하며 설명하기 쉽지 않고 정량화하기는 더 쉽지 않은 특징, 즉 진정성, 유머, 정직성을 나타낸다.

 

As these systems are deployed into the world, humans tell them what to do and guide them through moments of novelty, change and uncertainty.

이 시스템이 세상에 배치되면, 인간들은 그것에게 무엇을 해야 할지 지시하고 그것을 새로움, 변화 및 불확실성의 순간들을 통해 인도한다.

 

“A.I. needs us: living beings, producing constantly, feeding the machine,” said Matteo Pasquinelli, a professor of the philosophy of science at Ca’ Foscari University in Venice. “It needs the originality of our ideas and our lives.”

베니스 카포스카리 대학교의 과학철학 교수인 마테오 파스퀴넬리는 “A.I.는 우리, 즉 끊임없이 생산하고 기계에 먹을 것을 공급하는 살아있는 존재를 필요로 한다”고 말했다. “그것은 우리의 아이디어들과 우리의 삶의 독창성을 필요로 한다.”

 

A Thrilling Fantasy

스릴 넘치는 환상

 

For people both inside the tech industry and out, claims of imminent A.G.I. can be thrilling. Humans have dreamed of creating an artificial intelligence going back to the myth of the Golem, which appeared as early as the 12th century. This is the fantasy that drives works like Mary Shelley’s “Frankenstein” and Stanley Kubrick’s “2001: A Space Odyssey.”

테크 산업 안팎의 사람들에게 A.G.I. 의 등장이 임박했다는 주장은 스릴 넘칠 수 있다. 인간은 일찍이 12세기에 등장한 골렘의 신화 때부터 인공 지능을 창조하는 꿈을 꾸어 왔다. 이것은 메리 셸리의 <프랑켄슈타인>과 스탠리 큐브릭의 <2001: 스페이스 오디세이>와 같은 작품의 원동력이 된 환상이다.

 

Now that many of us are using computer systems that can write and even talk like we do, it is only natural for us to assume that intelligent machines are almost here. It is what we have anticipated for centuries.

우리 중 많은 이들이 우리처럼 글을 쓰고 심지어 말할 수 있는 컴퓨터 시스템을 사용하고 있는 지금, 지능형 기계가 거의 여기에 있다고 생각하는 것은 당연하다. 이것은 우리가 수세기 동안 예상해 온 것이다.

 

When a group of academics founded the A.I. field in the late 1950s, they were sure it wouldn’t take very long to build computers that recreated the brain. Some argued that a machine would beat the world chess champion and discover its own mathematical theorem within a decade. But none of that happened on that time frame. Some of it still hasn’t.

1950년대 후반 일단의 학자들이 A.I. 분야를 창설했을 때, 그들은 뇌를 재현하는 컴퓨터를 만드는 데 그리 오랜 시간이 걸리지 않을 것이라고 확신했다. 어떤 이들은 10년 안에 기계가 세계 체스 챔피언을 이기고 혼자 힘으로 수학 정리를 발견할 것이라고 주장했다. 그러나 그 중 어느 것도 그 기간 내에 일어나지 않았다. 일부는 아직도 일어나지 않았다.

 

Many of the people building today’s technology see themselves as fulfilling a kind of technological destiny, pushing toward an inevitable scientific moment, like the creation of fire or the atomic bomb. But they cannot point to a scientific reason that it will happen soon.

오늘날의 기술을 구축하는 많은 사람들은 자신들이 불이나 원자폭탄의 창조와 같은 불가피한 과학적 순간을 향해 나아가는 일종의 기술적 운명을 완수하고 있다고 생각한다. 그러나 그들은 그것이 곧 일어날 것이라는 과학적 이유를 제시할 수 없다.

 

That is why many other scientists say no one will reach A.G.I. without a new idea — something beyond the powerful neural networks that merely find patterns in data. That new idea could arrive tomorrow. But even then, the industry would need years to develop it.

이것이 많은 다른 과학자들이 단순히 데이터에서 패턴을 찾는 강력한 신경망을 넘어서는 것인 새로운 아이디어 없이는 아무도 A.G.I.에 도달하지 못할 것이라고 말하는 이유이다. 그 새로운 아이디어는 내일 도착할 수도 있다. 그러나 그때조차도 업계는 그것을 전개시키는 데 몇 년이 필요할 것이다.

 

Yann LeCun, the chief A.I. scientist at Meta, has dreamed of building what we now call A.G.I. since he saw “2001: A Space Odyssey” in 70-millimeter Cinerama at a Paris movie theater when he was 9 years old. And he was among the three pioneers who won the 2018 Turing Award — considered the Nobel Prize of computing — for their early work on neural networks. But he does not believe that A.G.I. is near.

메타의 수석 AI 과학자인 얀 르쿤은 9살 때 파리 영화관에서 70mm 시네라마로 <2001: 스페이스 오디세이>를 본 이후로 우리가 지금 A.G.I.라고 부르는 것을 만드는 꿈을 꾸어 왔다. 그리고 그는 2018년에 신경망에 대한 초기 연구로 컴퓨팅 분야의 노벨상으로 간주되는 튜링상을 수상한 세 명의 선구자 중 한 명이었다. 그러나 그는 A.G.I.가 가깝다고 믿지 않는다.

 

At Meta, his research lab is looking beyond the neural networks that have entranced the tech industry. Mr. LeCun and his colleagues are searching for the missing idea. “A lot is riding on figuring out whether the next generation architecture will deliver human-level A.I. within the next 10 years,” he said. “It may not. At this point, we can’t tell.”

메타에서 그의 연구실은 테크 산업을 매료시킨 신경망 너머를 바라보고 있다. 르쿤과 그의 동료들은 놓친 아이디어를 찾고 있다. 그는 “다음 세대 아키텍처가 향후 10년 안에 인간 수준의 A.I.를 제공할 수 있을지를 알아내는 데 많은 것이 달려 있다”라고 말했다. “제공하지 못 할 수도 있다. 현재로서는 알 수 없다.”