ATP Tennis Cluster Analysis -번역

ATP 테니스 클러스터 분석

클러스터 분석을 사용하여 테니스 경기 스타일 분할

Photo by Ryan Searle on Unsplash
Image for post

Dominic Thiem을 플레이 할 때 봉사하는 동안 Novak Djokovic 경력 통계 (2020 년 11 월 21 일)
캡처 할 수있는 항목을 기반으로 한 각 클러스터에 대한 요약 통계

클러스터 Y에 대한 클러스터 X 승률
Image for post

그래프는 위 표면에서 클러스터 Y에 대한 클러스터 X의 개선 또는 감소 된 승률로 읽을 수 있습니다.

ATP Tennis Cluster Analysis

ATP Tennis Cluster Analysis

Using cluster analysis to segment tennis playing styles

Photo by Ryan Searle on Unsplash
Image for post

Novak Djokovic career stats while serving at the time of playing Dominic Thiem (Nov 21, 2020)
Summary Statistic for each cluster based on what I was able to capture

Cluster X winning percentage against Cluster Y
Image for post

Graph can be read as Cluster X’s improved or reduced winning percentage against Cluster Y on the above surface

2021년 2월 20일 성남시 분당구 부동산 경매 데이터 분석

2021년 2월 20일 용인시 부동산 경매 데이터 분석

경기도 용인시 기흥구 탑실로 152, 208동 4층405호 (공세동,탑실마을대주피오레2단지) [집합건물 철근콘크리트구조 150.2849㎡]

항목
경매번호 2020타경61647
경매날짜 2021.02.25
법원 수원지방법원
담당 경매3계
감정평가금액 425,000,000
경매가 425,000,000(100%)
유찰여부 신건


<최근 1년 실거래가 정보>
– 총 거래 수: 0건
– 동일 평수 거래 수: 0건

경기도 용인시 처인구 남사면 한숲로 83, 507동 6층602호 (이편한세상용인한숲시티5단지) [집합건물 철근콘크리트구조 84.658㎡]

항목
경매번호 2020타경61319
경매날짜 2021.02.25
법원 수원지방법원
담당 경매3계
감정평가금액 322,000,000
경매가 322,000,000(100%)
유찰여부 신건


<최근 1년 실거래가 정보>
– 총 거래 수: 0건
– 동일 평수 거래 수: 0건

2021년 2월 20일 수원시 부동산 경매 데이터 분석

경기도 수원시 팔달구 중부대로 96-19, 102동 16층1605호 (인계동,인계희성연인) [집합건물 철근콘크리트구조 84.9954㎡]

항목
경매번호 2020타경64585
경매날짜 2021.02.24
법원 수원지방법원
담당 경매6계
감정평가금액 338,000,000
경매가 338,000,000(100%)
유찰여부 신건


<최근 1년 실거래가 정보>
– 총 거래 수: 31건
– 동일 평수 거래 수: 31건

최근 1년 동일 평수 거래건 보기

날짜 전용면적 가격
2020-12-10 84.9954 18 37000
2020-12-17 84.9954 15 37500
2020-12-18 84.9954 9 38700
2020-12-18 84.9954 9 38700
2020-11-13 84.9487 12 37500
2020-11-02 84.945 5 35000
2020-10-08 84.9954 7 35000
2020-10-08 84.9954 7 35000
2020-07-16 84.945 19 30200
2020-07-02 84.945 15 35000
2020-07-28 84.9954 17 34800
2020-06-01 84.9954 4 33800
2020-06-03 84.9954 8 33500
2020-06-30 84.945 14 36000
2020-05-23 84.9487 12 31800
2020-05-23 84.9487 12 31800
2020-05-05 84.9487 6 32500
2020-05-08 84.9954 7 30000
2020-03-06 84.9954 4 29300
2020-03-06 84.9487 16 33500
2020-02-01 84.945 9 30700
2020-02-01 84.9954 7 30500
2020-02-10 84.9487 10 31000
2020-02-11 84.945 13 30000
2020-02-14 84.9954 8 31500
2020-02-15 84.9954 16 31800
2020-02-15 84.9487 11 33000
2020-02-15 84.9954 5 31800
2020-02-20 84.9954 14 34000
2020-02-21 84.9954 4 31800
2020-02-05 84.9487 11 30900

경기도 수원시 권선구 정조로 618, 103동 6층606호 (세류동,성원아파트) [집합건물 철근콘크리트조 59.40㎡]

항목
경매번호 2020타경63490
경매날짜 2021.02.25
법원 수원지방법원
담당 경매3계
감정평가금액 265,000,000
경매가 265,000,000(100%)
유찰여부 신건


<최근 1년 실거래가 정보>
– 총 거래 수: 22건
– 동일 평수 거래 수: 13건

최근 1년 동일 평수 거래건 보기

날짜 전용면적 가격
2021-02-16 59.4 2 27500
2021-01-13 59.4 11 28000
2020-12-03 59.4 12 26000
2020-12-05 59.4 4 27000
2020-10-14 59.4 12 23000
2020-08-05 59.4 12 28000
2020-08-05 59.4 9 28500
2020-06-17 59.4 10 28500
2020-06-19 59.4 12 23000
2020-05-30 59.4 2 23500
2020-04-16 59.4 9 24300
2020-03-02 59.4 6 24500
2020-03-06 59.4 2 21000

경기도 수원시 권선구 매탄로 11, 208동 13층1303호 (권선동,현대아파트) [집합건물 철근콘크리트조 60.00㎡]

항목
경매번호 2020타경15231
경매날짜 2021.03.03
법원 수원지방법원
담당 경매8계
감정평가금액 284,000,000
경매가 284,000,000(100%)
유찰여부 신건


<최근 1년 실거래가 정보>
– 총 거래 수: 121건
– 동일 평수 거래 수: 0건

경기도 수원시 영통구 봉영로1517번길 73, 935동 3층301호 (영통동,태영아파트) [집합건물 철근콘크리트 벽식조 84.91㎡]

항목
경매번호 2020타경1010
경매날짜 2021.03.04
법원 수원지방법원
담당 경매10계
감정평가금액 407,000,000
경매가 407,000,000(100%)
유찰여부 신건


<최근 1년 실거래가 정보>
– 총 거래 수: 46건
– 동일 평수 거래 수: 46건

최근 1년 동일 평수 거래건 보기

날짜 전용면적 가격
2021-01-16 84.84 1 52700
2021-01-30 84.93 13 64000
2021-01-14 84.91 16 65000
2020-12-01 84.93 2 51000
2020-12-01 84.93 2 51000
2020-12-11 84.93 3 59000
2020-12-11 84.84 6 54700
2020-12-16 84.91 15 65000
2020-12-21 84.88 18 57500
2020-12-23 84.88 5 58800
2020-11-21 84.93 6 55400
2020-11-23 84.93 10 59500
2020-11-23 84.93 4 50200
2020-11-24 84.93 13 59900
2020-11-27 84.84 17 52000
2020-11-06 84.84 6 51000
2020-11-13 84.91 3 52500
2020-11-25 84.91 18 55000
2020-11-04 84.91 10 55000
2020-10-16 84.93 9 50800
2020-10-22 84.93 9 55000
2020-10-09 84.93 11 50000
2020-10-13 84.91 7 54800
2020-10-16 84.88 11 51500
2020-10-16 84.91 5 49000
2020-10-22 84.88 10 51900
2020-09-21 84.84 8 49000
2020-09-26 84.93 5 52700
2020-09-26 84.93 5 52700
2020-08-12 84.84 11 49800
2020-08-28 84.84 5 48500
2020-08-14 84.91 18 51500
2020-08-03 84.91 5 54500
2020-07-18 84.84 3 47800
2020-07-11 84.88 8 48900
2020-07-18 84.91 12 53000
2020-07-06 84.88 11 50000
2020-06-09 84.84 9 49400
2020-06-18 84.91 3 49500
2020-06-23 84.91 3 50500
2020-06-04 84.91 4 49500
2020-03-27 84.93 10 49500
2020-02-19 84.84 6 50000
2020-02-07 84.93 7 47050
2020-02-05 84.91 17 45000
2020-02-06 84.88 8 47200

2021년 2월 19일 모바일 게임 매출 순위

Rank Game Publisher
1 리니지2M NCSOFT
2 리니지M NCSOFT
3 그랑사가 NPIXEL
4 기적의 검 4399 KOREA
5 Cookie Run: Kingdom – Kingdom Builder & Battle RPG Devsisters Corporation
6 세븐나이츠2 Netmarble
7 라이즈 오브 킹덤즈 LilithGames
8 Brawl Stars Supercell
9 Genshin Impact miHoYo Limited
10 KartRider Rush+ NEXON Company
11 뮤 아크엔젤 Webzen Inc.
12 가디언 테일즈 Kakao Games Corp.
13 바람의나라: 연 NEXON Company
14 Epic Seven Smilegate Megaport
15 Roblox Roblox Corporation
16 미르4 Wemade Co., Ltd
17 A3: 스틸얼라이브 Netmarble
18 V4 NEXON Company
19 메이플스토리M NEXON Company
20 리니지2 레볼루션 Netmarble
21 블레이드&소울 레볼루션 Netmarble
22 S.O.S:스테이트 오브 서바이벌 KingsGroup Holdings
23 PUBG MOBILE KRAFTON, Inc.
24 FIFA ONLINE 4 M by EA SPORTS™ NEXON Company
25 찐삼국 ICEBIRD GAMES
26 카운터사이드 NEXON Company
27 R2M Webzen Inc.
28 라그나로크 오리진 GRAVITY Co., Ltd.
29 검은강호2: 이터널 소울 9SplayDeveloper
30 FIFA Mobile NEXON Company
31 Cookie Run: OvenBreak – Endless Running Platformer Devsisters Corporation
32 붕괴3rd miHoYo Limited
33 Empires & Puzzles: Epic Match 3 Small Giant Games
34 그랑삼국 YOUZU(SINGAPORE)PTE.LTD.
35 AFK 아레나 LilithGames
36 Homescapes Playrix
37 Pmang Poker : Casino Royal NEOWIZ corp
38 컴투스프로야구2021 Com2uS
39 어비스(ABYSS) StairGames Inc.
40 Gardenscapes Playrix
41 Age of Z Origins Camel Games Limited
42 한게임 포커 NHN BIGFOOT
43 갑부: 장사의 시대 BLANCOZONE NETWORK KOREA
44 블리치: 만해의 길 DAMO NETWORK LIMITED
45 랑그릿사 ZlongGames
46 Top War: Battle Game Topwar Studio
47 검은사막 모바일 PEARL ABYSS
48 프린세스 커넥트! Re:Dive Kakao Games Corp.
49 Lords Mobile: Kingdom Wars IGG.COM
50 달빛조각사 Kakao Games Corp.

Superhuman AI and the future of democracy and government -번역

팟 캐스트

초인적 AI와 민주주의와 정부의 미래

Ben Garfinkel은 인류의 미래에 대해 예측할 수있는 것과 할 수없는 것을 탐구합니다.

편집자 주 :이 에피소드는 데이터 과학 및 기계 학습의 새로운 문제에 대한 팟 캐스트 시리즈의 일부입니다.,Jeremie Harris가 주최합니다.팟 캐스트 호스팅 외에도 Jeremie는 데이터 과학 멘토링 스타트 업을 운영하는 데 도움을줍니다.SharpestMinds.아래 팟 캐스트를들을 수 있습니다.

우리가 점점 더 정교한 A를 계속 개발함에 따라나는시스템, 점점 더 많은 경제학자, 기술자 및 미래 학자들이이 모든 발전의 종말점이 무엇인지 예측하려고 노력해 왔습니다.인간은 무관할까요?우리가 여가 시간으로하고 싶은 것부터 사회를 관리하는 방법에 이르기까지 모든 결정을 기계에 맡길 것인가?그리고 민주주의와 거버넌스의 미래에 대해 매우 유능하고 매우 일반적인 AI 시스템의 출현은 무엇을 의미합니까?

이러한 질문은 완전하고 직접적으로 답하기는 불가능하지만 인간 기술 발전의 역사를 장기적으로 살펴보면 힌트를 얻을 수 있습니다.이것이 제 게스트 인 Ben Garfinkel이 AI의 미래에 대한 연구에 적용하고있는 전략입니다.Ben은 현재 Oxford의 Future of Humanity Institute에서 신흥 기술의 위험 예측에 대한 연구를 수행하는 물리학 자이자 수학자입니다.

AI와 같은 기술의 미래 영향을 예측하는 연구 외에도 Ben은 AI 위험에 대한 몇 가지 고전적인 주장을 탐구하는 데 시간을 보냈습니다.팟 캐스트에 이러한 위험을 진지하게 받아들이는 게스트가 많았 기 때문에 벤에게도 그의 견해에 대해 이야기 할 가치가 있다고 생각했고 그렇게해서 매우 기쁩니다.

다음은 우리 대화에서 제가 가장 좋아하는 테이크 홈입니다.

  • 당연히 미래를 예측하는 것은 어렵습니다.그러나 인공 지능과 그것이 경제에 미치는 영향과 관련하여 특히 어렵게 만드는 것 중 하나는 AI가 표준 경제 모델에 포함 된 많은 가정에 도전 할 가능성이 있다는 것입니다.예를 들어, 시장이 돈을 벌고 제품에 지출하려는 사람들로 구성된다는 생각 자체가 대부분의 구매 및 판매 결정이 기계에 의해 이루어지는 세상으로 일반화되지 않을 수 있습니다.마찬가지로, 우리는 현재 노동 (사람들이 물건을 만들고 서비스를 제공하기 위해 투입하는 작업)과 자본 (도구, 장비, 물건을 만들거나 다른 물건을 만드는 데 사용하는 물건) 사이에 매우 분명한 차이가 있다고 가정합니다.AI 시스템이 자본으로 간주되는 세상에 어떤 경제적 직관이 일반화 될지는 분명하지 않지만 대부분의 노동을 수행하고 있습니다.
  • 경제학자, 역사가, 미래 학자 간의 활발한 논쟁 중 하나는 세계 인간 경제의 성장과 발전이 순조롭고 점진적인지 아니면 단계적이고 날카로운 지에 대한 것입니다.예를 들어, 어떤 사람들은 산업 혁명, 신석기 혁명 및 기타 유사한 사건을 경제 발전이 불연속적이고 갑작스럽게 증가한 순간으로 지적하는 반면, 다른 사람들은이를 단지 주변의 지속적인 발전 수준이 마침내 눈에 띄게 된 순간으로 간주합니다.흥미롭게도 인간 경제 역사의 상대적인 부드러움이나 날카로움에 대한 사람들의 견해는 AI 경제로의 전환을 상상하는 방식에 중요한 역할을합니다.일반적으로 경제 성장이 항상 지속적이고 점진적이라고 생각한다면 AI가 단기간에 일상 생활에서 불연속적이고 혁신적인 도약으로 이어질 것이라고 생각할 가능성이 적습니다.
  • Ben은 AI 위험에 대한 특정 “고전적인”주장에 회의적입니다.그것들을 완전히 무시하지는 않지만, 그는 그들 중 많은 것이 불필요하게 추상적이라고 주장한다.그는 또한 OpenAI의 GPT-3와 같은 점점 더 많은 시스템의 출현으로 우리에게 구체적이고 다소 일반적인 AI 시스템이 실제로 어떻게 작동하는지 볼 수있는 기회를 주었고 그 결과는 AI 위험에 대한 우려가재귀 적으로 자기 개선 시스템특히 단단한 바닥에 있지 않을 수 있습니다.여기서 글 머리 기호 형식으로 이러한 주장을 풀기가 * 정말 * 어렵습니다. 따라서이 측면에 관심이 있다면 에피소드를 듣는 것이 좋습니다.

당신은 할 수 있습니다여기 Twitter에서 Ben을 팔로우하세요.(아직 트윗하지 않았지만 : P) 또는여기 트위터에서 나를 따르라.

팟 캐스트 중에 참조 된 링크 :

Image for post

장 :

  • 0:00 소개
  • 1:21 Ben의 배경
  • 3:14 AI의 위험
  • 9:57 돈의 가치
  • 13:38 참여 적 현상으로서의 AI
  • 16:01 AI 및 GDP
  • 27:11 생명의 진화
  • 30:36 AI 리스크 주장
  • 45:23 이러한 시스템 구축
  • 51:29 인간의 자기 개선 피드백
  • 53:54 아이디어의 변화
  • 1:07:38 요약

성적 증명서 아래에서 찾으십시오.

Jeremie (00:00:00) :
안녕하세요, 제레미입니다.Towards Data Science 팟 캐스트에 다시 오신 것을 환영합니다.오늘은 AI와 관련된 장기적이고 개량 된 외모, 반 미래 지향적 인 주제를 많이 다루게 될 것이기 때문에 오늘 에피소드가 정말 기대됩니다.그리고 AI 기술이 거버넌스의 미래를 형성하는 방식입니다.인간이 경제적으로 무의미 해 질까요?우리의 일상적인 결정 중 얼마나 많은 것이 기계에 오프로드 될 것입니까?그리고 아마도 가장 중요한 것은, 매우 유능하고 매우 일반적인 AI 시스템의 출현이 민주주의와 거버넌스 자체의 미래에 무엇을 의미할까요?이러한 질문은 어떤 종류의 확실하게 대답 할 수 없지만, 인간 기술 발전의 역사를 오랫동안 바라 보면 힌트를 얻을 수 있습니다.

Jeremie (00:00:41) :
이것이 바로 제 게스트 인 Ben Garfinkel이 AI의 미래에 대한 연구에 적용한 전략입니다.현재 Ben은 Oxford의 Future of Humanity Institute에서 AI를 포함한 첨단 기술의 위험을 예측하는 여러 분야의 연구원입니다.Ben은 또한 AI 위험에 대한 몇 가지 고전적인 주장을 탐구하는 데 많은 시간을 보냈습니다.이 중 상당수는 팟 캐스트에서 접하게 될 것입니다.우리는 많은 손님들이 그들에 대해 자세히 토론하고 탐구했고 그가 동의하지 않는 많은 사람들을 가졌습니다.그리고 우리는 그의 의견 불일치, 그가 가진 이유, 그리고 AI 위험에 대한 논쟁이 약간 불안정하다고 생각하는 부분을 조사 할 것입니다.대화를 정말 즐겼습니다.당신도 그러길 바랍니다.벤, 팟 캐스트에 함께 해주셔서 감사합니다.

Ben (00:01:19) :
네.저를 초대해 주셔서 감사합니다.

Jeremie (00:01:21) :
당신이 여기에있어 정말 기쁩니다.당신의 초점은 인공 지능과 관련된 많은 장기적인 문제들에 있습니다.하지만 그 고기와 감자에 대해 자세히 알아보기 전에이 공간에 오게 된 이유를 더 잘 이해하고 싶습니다.그렇다면 당신의 배경은 무엇이며 AI에서 장기주의를 어떻게 발견 했습니까?

Ben (00:01:38) :
예, 사실 꽤 원형 인 것 같아요.그래서 대학에서 물리학과 철학을 공부했고 실제로 물리학 철학에 관심이 많았고 대학원에가는 것도 고려하고 있었는데 다행스럽게도 그렇게하지 않았습니다.그리고 저는 철학을 통해 윤리에 대해 더 많이 배우기 시작했고 인구 윤리에 대한 특정 아이디어를 접했습니다.우리가 내리는 결정에서 미래 세대를 어떻게 소중히 여기고 미래 세대에 대한 우리의 의무가 무엇인지에 대해 다른 질문이 있다는 생각.또는 다른 사람들에게 적어도 어느 정도 유용 할 수있는 일을하는 것이 얼마나 강력한 지.그리고이를 통해 장기주의에 점점 더 관심을 갖게되었고 유용 해 보이는 것을 알아 내려고 노력했습니다.그리고 저는 아마도 철학과 물리학이 그렇지 않다고 생각하게되었습니다.

Ben (00:02:28) :
그리고 저는 실제로 이번 무렵뿐만 아니라 장기 주의적이거나 미래적인 주제에 대해 더 자세히 살펴 보려고 노력하면서 우연히 예일대에 있던 교수 인 Allan Dafoe를 만났습니다.그는 그저 AI 거버넌스 문제를 해결하기 위해 노력하고있었습니다.그리고 제가 아직 선배 였을 때 그가 연구 조교를 부른 것 같아요.이 주제에 관심이 있었고 AI 위험에 대해 조금 읽었습니다.예를 들어 Superintelligence라는 책을 읽기 시작했는데 그 분야에 실제로 관여하지는 않았지만 중요한 문제가있는 것 같았습니다.기회가 생겨서 Allan과 함께 일하기 시작했습니다.그리고 몇 년이 지난 지금도 저는 여전히 Allan과 함께 일하고 있으며, 신기술의 위험에 대해 작업하는 것이 장기적인 관점에서 적어도 꽤 좋은 일이라는 것을 상당히 확신하게되었습니다.

Jeremie (00:03:14) :
그리고 이것은 실제로 아름다운 segue입니다. 제가 정말로 이야기하고 싶었던 주요 주제 중 하나라고 생각합니다.그리고 그것은 당신이 AI의 실존 적 위험과 그에 대한 주장에 대해 많은 시간을 보냈다는 생각입니다.그중 많은 부분이 실제로 완전히 팔리지 않았다는 것을 알고 있습니다.여기서 시작할 수 있습니다. 특히 사람들, 특히 앨런과 당신이 AI에 대해 걱정하는 실존 적 위험의 본질은 무엇입니까?그런 다음 우리는 그러한 주장에 대한 반론도 할 수 있습니다.하지만 우선, 그 위험은 무엇입니까?

Ben (00:03:44) :
예, 그래서 저는 AI의 장기적인 영향에 대해 생각하는 사람들의 커뮤니티에서 적어도 정말로 우세한 단일 위험이 있다고 생각하지 않습니다.그래서 저는 몇 가지 주요, 매우 광범위하고 다소 모호한 범주가 있다고 말하고 싶습니다.따라서 매우 빠르게 위험의 한 종류는 불안정성으로 인한 위험입니다.따라서 많은 사람들, 특히 국제 안보 영역에서 예를 들어 치명적인 자율 무기 시스템에 대해 걱정하고 있습니다. 어쩌면 국가 간 갈등의 위험이 증가 할 수도 있습니다.우발적, 플래시 충돌 또는 잠재적으로 AI의 특정 응용 프로그램 일 수 있습니다. 2 차 공격 능력을 이동하고 핵전쟁의 위험을 증가 시킨다고 가정 해 보겠습니다.또는 그들은 큰 권력 경쟁에 대해 걱정합니다.그리고 그들이 가지고있는 주요 관심 벡터는 인공 지능이 국내 적으로나 국제적으로 정치를 불안정하게 만들 것이고, 그 후 지속적인 피해를 입힐 전쟁이있을 수도 있고 다른 부정적이고 긴 갈등이있을 수도 있다는 것입니다.

Ben (00:04:43) :
거기에 덜 초점을 맞춘 또 다른 종류의 우려가 있습니다. 특정한 갈등이나 붕괴 또는 전쟁이라고합시다.그리고 AI가 사회를 재편성하는 방식에 일정 수준의 우발성이있을 수 있다는 생각에 더 집중합니다.따라서 정부와 AI가 미래 세대에 영향을 미치고 계속해서 영향을 미칠지에 대해 사람들이 내리는 특정 결정을 생각할 수 있습니다.그리고 사실, 예를 들어, 민주주의가 얼마나 널리 퍼져 있는지, 권력의 분배가 무엇인지, 또는 사람들이 관심을 갖는 다양한 다른 것들, 예를 들어 나쁜 가치가 어떤 의미에서 확고히 자리 잡는 것과 같은 것들이 있습니다.

Jeremie (00:05:23) :
왜냐하면 그 쪽은 아주, 분명히 복잡한 영역이라고 생각합니다.하지만 사람들이 AI가 미래에 민주주의가 유치 할 수있는 거버넌스 모드라고 말할 수있는 범위를 바꾸는 것을 상상하는 방식은 무엇일까요?

Ben (00:05:36) :
그래서 민주주의에 관해서는 분명히 이것에 대한 약간의 추측적인 우위가 있습니다. 그러나 민주주의에 대해 걱정하는 것에 대한 한 가지 주장은 민주주의가 정말로 정상적이지 않다는 것입니다. 역사의 광범위하고 포괄적 인 관점을 살펴보면, 최초의 문명으로 돌아가는 것은 드문 일이 아닙니다. 매우 매주 민주적 인 요소가 있다고합시다. 그래서 그것은 완전한 독재 정치가 아닙니다. 예를 들어 로마 상원 의원 같은 어떤 종류의기구가 있습니다.하지만 로마의 경우 잘 알려진 것입니다. 그러나 그것은 우리가 지금 가지고있는 것과는 매우 거리가 멉니 다. 이는 매우 반응이 빠른 정부와 더 많은 것을위한 일관된 이적을 가진 많은 국가에서 거의 보편적 인 참정권과 같습니다. 이것은 역사적 관점에서 매우 드뭅니다. 그리고 상황이 완전히 독재 화되지 않았거나 이전에 다가 왔더라도 지난 100 년 동안은 매우 다른 일입니다. 그리고이 현대적인 형태의 민주주의가 왜 더 보편화되었는지에 대한 다양한 이론이 있습니다. RCT를 실행하기가 어렵 기 때문에 이에 대해 많은 논쟁이 있습니다. 그러나 많은 사람들은 산업 혁명을 중심으로 발생하는 적어도 특정한 경제적 변화가 적절하다고 지적합니다.

Ben (00:06:43) :
그래서 사람들이 때때로 제기하는 변화의 한 종류는 Androform입니다. 산업 혁명 이전에는 정말 심각한 문제였습니다.몇 가지 우려 사항은 많은 일반 사람들에게 정부의 권력을 주거나 부유 한 행위자들의 부의 주요 형태 인 토지를 재분배하는 [들리지 않음 00:06:56]을 활용한다면보다 광범위하게 파괴적이어야한다는 것입니다..그리고 그것은 국가들이 산업화되고 토지가 부의 형태로서 덜 관련성이있게되면서 이러한 농지 개혁 문제가 방해 요소가되지 않게되었을 것입니다.당신은 더 이상이 땅 귀족이 아니었고, 이처럼 무뚝뚝한 정책 공포를 가졌습니다.

Ben (00:07:18) :
그리고 또 다른 우려는 노동의 가치가 생산적 증가와 마찬가지로 증가했다는 것입니다.그리고 이것은 사람들에게 모호한 의미에서 더 많은 협상력을주었습니다. 왜냐하면 당신은 그들이 한 일과 더 많은 가치를 가진 전형적인 노동자를 가지고 있기 때문입니다.그리고 그들은 기본적으로 노동력을 제거하겠다고 위협함으로써 더 큰 위협을 만들 수 있습니다.또는 조직도 관련성이 있다고 생각했습니다. 도시에 사람들이 꽉 차면 조직하기가 더 쉽고 실제로 성공적인 혁명을 일으킬 수 있습니다.그리고 사람들이 기본적으로 경제 변화라고 지적하는 다양한 요인이있어 민주주의가 그 길을 따라가는 데 도움이되거나 오늘날 왜 더 널리 퍼져 있는지 적어도 부분적으로 설명하는 데 도움이 될 수 있습니다.

Ben (00:07:52) :
따라서 여러분이 상당히 광범위하게 가질 수있는 한 가지 우려는 민주주의의 보급이 어떤 식 으로든 특정 물질적 또는 경제적 요인에 달려 있는지 여부입니다.그렇다면 그것은 지난 몇 100 년 동안 만 유지되었습니다.이것은 정상이 아닐 수도 있습니다. 경제 및 기술 변수를 많이 변경하면 유지되지 않을 수도 있습니다.여기에 좀 더 구체적인 주장이 있습니다.그래서 한 가지 매우 구체적인 주장은 단지 인간 노동의 가치가 매우 낮아지면 대부분의 경우에는 0이된다는 것입니다. 왜냐하면 노동 대신 자본을 대체 할 수 있기 때문입니다.AI 시스템은 사람들이 할 수있는 모든 것을 할 수 있기 때문에, 아마도 우리가 노동자의 힘을 줄일 때, 당신이 법 집행을 자동화 할 수 있거나 군사 기술도 자동화 될 수 있기 때문에 봉기를 억제 할 수 있다면.

Ben (00:08:33) :
아마도 그것은 권위주의 정부를 더 안정되게 만들 것입니다.봉기에 대한 두려움 때문에 양보조차하지 않는다는 뜻입니다.노동의 가치가 0이되면 그 시점에서 누가 자본을 소유하는지 또는 누가 기계를 기본적으로 소유하는지에 따라 크게 달라질 수 있습니다.그리고 그것은 농지 개혁에 대한 사소한 우려와 매우 유사한 상황 인 시스템을 만들 수도 있습니다.부가 이러한 더 모호한 것들에 기반하지 않은 곳에서 사람들의 노동을 나누고 실제로 역할을하지 않았습니다. 그것은 주로 여러분이 소유하고있는 것이 기본적으로 임대료를 징수하는 것입니다.그 체제로 돌아 오면 민주주의의 안정에도 좋지 않을 수 있습니다.

Ben (00:09:09) :
그래서 외부 관점이 있습니다. 이것은 단지 드문 일입니다.우리는 그것이 지속될 것으로 기 대해서는 안되며 많이 바뀝니다.그리고 권위주의 정부를 더 안정되게 만들고 사람들이 [들리지 않음 00:09:24]에 권력을주는 것에 대해 더 걱정하게 만드는 내부 관점의 주장이 더 있습니다.

Jeremie (00:09:24) :
이러한 모든 문제가 얼마나 얽혀 있는지 그리고 이러한 모든 변화가 일어날 때 미래가 어떻게 보일지에 대한 일관된 비전을 표현하는 것이 얼마나 어려운지 정말 흥미 롭습니다.민주주의에서 일어날 일, 경제에서 일어날 일에 대해 이야기하기 시작할 때 저에게 계속 떠오르는 것 중 하나입니다.그리고 협상하는 노동의 힘은 우리가 모든 종류의 시장 구조를 가지고 있다는 기본 가정입니다.

Jeremie (00:09:57) :
그 중 하나는 제가 가질 수있는 거의 어리석은 질문은 그 맥락에서 돈의 가치가 무엇일까요?가격 발견의 가치는 무엇입니까?그러한 맥락에서 가격 발견은 어떻게 발생합니까?그리고 재분배가 의미하는 바는 … 우리가 반드시 희소성 이후 상황에있는 것이 아니라 희소성의 변화를 기대할 수 있습니다.하지만 어쨌든, 제가 여기서 말하고자하는 것이 무엇인지 확신 할 수 없습니다.하지만 당신이 거기에 던져 넣을 것이있는 것 같습니다.

Ben (00:10:23) :
그래서 저는 이것이 정말 심각한 문제라고 생각합니다. 나는 우리가 실제로 어떤 수준의 세부 사항에서도 매우 진보 된 AI로 미래를 상상할 수 있고 실제로 옳을 것이라고 기 대해서는 안된다고 생각합니다. 그래서 제가 가끔 사용한 비유는 AI 시스템이 최소한 사람들이 할 수있는 모든 일을 할 수있는 세상의 특정 측면이 있다고 생각한다는 것입니다. 우리는 추상적으로 어느 정도 추론 할 수 있습니다. 우리는 이러한 경제 모델을 가지고 있고, 우리는 노동을 가지고 있고 여러분은 자본을 가지고 있습니다. 그리고 여러분은 노동 대신 자본을 대체 할 수 있다면 어떤 일이 일어나는지 물어볼 수 있습니다. 그리고 프로젝트조차도 매우 추상적 인 관점입니다. 그리고 우리가 세부 사항을 알지 못하더라도 이러한 이론이 충분히 추상적이기를 바라는 이유가있을 수 있습니다. 우리가 미래에 대해 추론하기 위해 여전히 사용할 수있는 충분한 일반 초록이 있다고 생각할 이유가 있습니다. 하지만 정부가 일하는 방식을 구체적으로 설명하는 것과 같은 우려가 있습니다. 우리는 아마도 정부의 기능이 아주 잘못되었다고 상상할 것입니다.

Ben (00:11:19) :
그래서 제가 가끔 사용한 비유 중 하나는 당신이 1500이라고 말하고 누군가가 당신에게 인터넷을 매우 추상적 인 용어로 설명한다고 가정 해 봅시다. 마치 의사 소통이 훨씬 빨라질 것입니다.정보를 검색하고 학습하는 것이 훨씬 빠릅니다.그리고 그것은 당신에게 그것의 추상적 인 속성의 일부를 제공합니다.추론 할 수있는 몇 가지 사항이 있습니다.

Ben (00:11:40) :
예를 들어,“오, 사람들이 해외에 있고 연락이없는 것과는 달리 사람들과 더 빨리 소통 할 수 있기 때문에 자율성이 떨어질 수 있습니다.또는 이러한 조정 비용이 줄어들 것이기 때문에 비즈니스가 더 커질 수 있습니다. “그에 대해 말할 수있는 내용이 실제로 사실 일 수도 있고 “아마 사람들이 원격으로 일할 수도 있습니다.”라고 말할 수 있는데 세부 사항에 대해 많이 알지 못할 수도 있습니다.하지만 무슨 일이 일어나고 있는지 정말 구체적으로 알아 보려고한다면 아마도 완전히 완전히 틀렸다고 상상할 것입니다.컴퓨터가 실제로 어떤 것인지, 사람들이 컴퓨터와 상호 작용하는 방식에 대해 잘 모르기 때문입니다.

Ben (00:12:15) :
Reddit 및 GameStop 주식이라는 수준의 세부 정보를 얻지 못할 것입니다.이러한 모든 문제가 있으며, 세부 수준에서 예측할 수있는 가능성은 없습니다.그리고 어떻게 든 잘 맞지 않는 추상화를 사용하고 있기 때문에 실제로 적용되지 않을 것이라고 상상할 수있는 많은 문제가 있습니다.그래서 이것은 다소 긴 바람의 말입니다. 저는 우리가 충분히 추상적 인 추론의 이론과 방법을 가지고 있다고 생각하며 적어도 조금은 유지하기를 기대합니다.하지만 우리가 예측할 수없는 것들이 많이 있다고 생각합니다.우리가 정말로 말할 수없는 많은 문제.그리고 오늘 우리가 말하는 많은 것들은 아마도 미래의 관점에서 어리석게 될 것입니다.

Jeremie (00:12:51) :
예,“이번에는 다를 것입니다.”라는 말은 언제나 위험한 말이라고 생각합니다.그러나 AI 혁명의 다음 단계에 관해서는 그렇게 부르고 싶다면.나는 그것이 당신이 사용하는 경향이있는 언어라는 것을 알고 있으며,이 경우에 적절한 것 같습니다.제가 궁금해하는 것 중 하나는 시장과 같은 것을 정의하기 위해 우리가 의존하는 추상화가있는 추상화 유출과 거의 비슷합니다.이것은 우리가 미래를 예측하는 것에 대해 이야기 할 때 우리 추론의 가장 기본적인 요소 중 하나입니다.궁극적으로 가격은 개별 인간이 물건에 대해 기꺼이 지불하는 것이기 때문에 시장은 암묵적으로 사람을 중심으로 회전합니다.시장 참여자가 될 수있는 것에 대한 우리의 정의를 넓히는 범위까지.

Jeremie (00:13:38) :
그리고 여기서 우리는 AI 에이전트를 어떻게 고려할까요?어느 시점에서 사회 참여 구성원입니까?그리고 어떤 시점에서 가격 발견이 실제로 인간이 아닌 시스템과 같은 것들의 요구와 욕구를 중심으로 진행됩니까?이것이 제가 궁금해하기 시작하는 곳이라고 생각합니다. 이것은 기본적으로 비 구조적 관점입니다.그래서“시장은 잘못된 추상화”라고 말하는 것은 도움이되지 않지만 그게 심각하다고 생각하는 문제입니까?

Ben (00:14:06) :
예, 그렇습니다. 저는 확실히 문제가 있다고 생각합니다. 당신이 좋은 구체적인 문제를 지적했다고 생각합니다. 우리는 이렇게 확고한 차이가 있습니다. 사람들은 현재 기계와 소프트웨어와는 매우 다릅니다.그것은 경제 행위자들과 경제에 관한 것들과 매우 비슷합니다 [들리지 않음 00:14:23].그리고 어떤면에서는 사람과 비슷한 [들리지 않음 00:14:29] 어떤 목적으로 기업이 어느 정도 흐릿 해집니다.그러나 그 구별은 상당히 강력합니다.자본과 노동 사이에서도 현재로서는 모호하지 않습니다.

Ben (00:14:41) :
그러나 매우 광범위하고 부드러운 AI 시스템이 미래에 존재할 것이라고 생각한다면.우리는 사람들이 자신의 가치를 추구하기위한 평가를 생성하는 AI 시스템과 흥미로운 관계를 가질 수 있다고 생각합니다.우리가 그리는 많은 구별이 실제로 오늘날보다 훨씬 더 모호해질 수 있다고 생각합니다.그리고 그것들이 미래에 모호 해지는 방식은 우리가하는 어떤 이유 든 정말 뚜렷한 구별에 의존하는 이유가 현재 예측하기 어려운 방식으로 실패하게 만들 수 있습니다.

Jeremie (00:15:12) :
네.정말 예측할 수없고 근본적으로 도전 적이기 때문에 예측하는 것은 흥미로운 위험입니다.그것은 거기에서도 문제 중 하나 인 것 같습니다. 그리고 여러분은 실제로 기술의 역사에 대한 여러분의 작업에서 이것을 탐구합니다.이 기술의 진화에 대한 이야기를 전달하기 위해 어떤 측정 항목을 살펴볼 것인지입니다.그것에 대해 조금 말씀해 주시겠습니까, 귀하의 역사적 전망 및 흥미 롭다고 생각하는 지표는 무엇이며 미래에 관련성이 있거나 관련이없는 이유는 무엇입니까?

Ben (00:15:36) :
네.그래서 저는 사람들이 매우 자주 접근하는 하나의 측정 항목이 글로벌 세계 제품 또는 GDP라고 생각합니다.GDP는 측정 기준으로 흥미 롭습니다. 측정하려는 것은 기본적으로 어느 정도 생산 능력 (예 : 얼마나 많은 물건을 생산할 수 있는지 또는 사람들이 가치있는 물건을 생산할 수있는 물건)과 같은 어느 정도의 생산 능력이기 때문입니다.과-

Jeremie (00:16:01) :
어리석은 질문이 있습니다.그렇다면 GDP는 무엇입니까?GDP의 실제 정의는 무엇입니까?

Ben (00:16:08) :
따라서 최소한 명목 GDP에서는 경제 내에서 판매되는 모든 최종 제품의 총 가격을 합산합니다.따라서 최종 제품은 기본적으로 최종 결과와 같은 것입니다.누군가 나사를 팔면 나사를 사용하여 천장 선풍기 같은 것을 만드는 사람에게 나사를 판매합니다.나사는 두 번 계산하기 때문에 계산되지 않습니다.누군가가 천장 형 선풍기를 구입하고 천장 형 선풍기를 구입할 때 나사를 구입하면 나사도 구입하는 것입니다.따라서 기본적으로 중간 제품을 제외한 경제 내에서 구매하거나 판매하는 모든 제품의 기본 판매 가격을 합산하는 것입니다.

Ben (00:16:48) :
그러나 사람들은 종종 명목 GDP와 다른 실질 GDP에 대해 이야기하고 싶어합니다.따라서 명목 GDP는 기본적으로 모든 가격을 더합니다.명목 GDP의 한 가지 문제는 인플레이션이 발생하면 실제 기초 주식과 관련이없는 이유로 명목 GDP가 증가 할 수 있다는 것입니다.그래서 정부는 더 많은 돈을 인쇄하기로 결정합니다. 갑자기 모든 가격이 1,000 배씩 올라가지 만 여러분은 여전히 똑같은 것을 가지고 있습니다.명목상의 의미에서 GDP 성장률이 극도로 빠르다고 느끼지는 않지만 실제로 더 많은 것을 생산하고 있다는 것을 알려주지는 않습니다.

Jeremie (00:17:25) :
네.베네수엘라는 잘하고 있습니다.

Ben (00:17:27) :
예 바로 그 거예요. 실질 GDP는이를 조정하기위한 것입니다. 그리고 적어도 그것이 작동하는 방식을 대략적으로 말하면 과거에 특정 시점에 존재했던 가격과 관련된 모든 것을 정의하려고 노력하는 것입니다. 경제가 존재한다고 가정 해 봅시다. 판매되는 유일한 제품은 버터이고 버터 가격은 인플레이션으로 인해 어떤 이유로 인해 1,000 배 상승합니다. 그러나 경제에서 판매하는 버터의 양은 두 배에 불과합니다. 실질 GDP는“오, 당신이 판매 한 버터의 양이 2 배 증가했기 때문입니다. 경제 규모는 2 배만 증가했습니다.” 그리고 경제의 규모는 과거의 버터 가격에 오늘날 존재하는 단위 수를 곱한 것으로 정의됩니다. 이것이 실질 GDP입니다. 사람들이 시간이 지남에 따라 새로운 제품을 계속 소개하기 때문에 매우 복잡해집니다. 그렇다면 사람들이 2020 년에 구매하는 대부분의 물건이 1700 년에 존재하지 않았다는 점을 감안할 때 2020 년 경제의 실질 GDP를 1700 년대 경제와 어떻게 비교합니까? 실제로 어떻게 비교합니까? 사람들이 사용하는 다양한 방법이 있지만 제대로 이해하지 못합니다.

Ben (00:18:36) :
하지만 그 질문을하면서 GDP의 주요 문제 중 하나에 도달했습니다.그것은 우리가 기본적으로 얼마나 많은 것을 만드는가와 같은 사회의 생산 능력을 추적하기위한 것입니다.단기간에 실질 GDP를 사용하는 경우 일반적으로 그렇게 많은 신제품을 도입하지 않기 때문에 상당히 문제가 없어 보입니다.그러나 오랜 시간이지나면서 이러한 비교가 실제로 어떻게 작동하는지 모호해집니다.그래서 매우 무딘 비교는 여전히 꽤 괜찮습니다.따라서 BC 10,000 년과 현재의 1 인당 GDP처럼 말할 수 있습니다.다른 100 개 사회의 1 인당 GDP를 정확히 어떻게 정의해야할지 몰라도 여전히 낮다고 확신합니다.

Ben (00:19:21) :
그래서 어떤 의미에서는 무뚝뚝한 도구와 같습니다. 그 유용성은 실제로 토론이나 예측을 얼마나 정확하게하고 싶은지에 달려 있다고 생각합니다.따라서 누군가가 자동화로 인해 1 인당 GDP 성장률이 10 배 증가 할 것이라는 매우 대담한 예측을한다고 가정 해 보겠습니다.누군가 그렇게 대담한 예측을한다면, 어떤 미친 미래 경제에서 실질 GDP가 의미하는 바가 약간 모호합니다.하지만 조금 애매하게 보아도 GDP의 차이 인 성장률은 변하지 않았고 10 배 증가한 성장률은 여전히 충분히 무딘 것입니다.주장을 표현하는 유용한 방법입니다.

Ben (00:19:57) :
그래서 그것은 긴 바람의 말입니다. 제 생각에 GDP 또는 1 인당 GDP는 생산 능력이 얼마나 빨리 증가하는지에 대한 대리 물로서 꽤 좋은 경우가 많습니다.산업 혁명과 같은 일에 유용합니다. 1 인당 GDP로 명확하게 나타납니다.또는 미개발 국가가 발전하지 않는 것처럼 국가가 정말로 정체 된 것처럼 보일 때 1 인당 GDP는 일반적으로 꽤 평평합니다.예를 들어, 중국이 정말 명백한 질적 의미로 도약하기 시작했을 때 1 인당 GDP는 그것을 꽤 잘 추적했습니다.그래서 유용하지만 다양한 문제가 있습니다.그리고 그 밖의 문제도 있습니다. 종종 사람들은 1 인당 GDP와 같은 사람들의 삶이 얼마나 좋은지에 대한 대리 물로 사용하기를 원합니다.

Ben (00:20:38) :
하지만 일반적으로 고려되지 않는 다양한 것들이 있습니다. 의료의 질은 직접적으로 고려되지 않고 대기 오염도 고려되지 않습니다.모든 사람이 매우 우울하거나 마취를했다면 개발중인 마취의 가치는 실제로 나타나지 않습니다.조명의 품질 향상, 전구가 양초보다 훨씬 낫다는 사실을 보여주는 William Nordhaus의 고전적인 논문이 있습니다. 100 년 이상 전에는 실제로 나타나지 않습니다.따라서 최소한 조잡한 척도로서 동일한 재정적 문제를 말하는 장황한 방식입니다. 꽤 좋습니다.하지만 웰빙 및 기타 관심있는 일에 도움이 될 수있는 것만 큼 실제로 상관 관계가있는 것은 아닙니다.

Jeremie (00:21:15) :
마지막 작품에 태그를 달았을 때 웰빙과 잘 관련되지 않는다는 것이 흥미 롭습니다.정렬 문제에 대한 더 나은 캡슐화를 생각할 수 없습니다.기본적으로 측정 항목을 만드는 문제는 여기에 우리가 원하는 것입니다.인간은 정말 나쁘거나 우리가 나쁘다는 것이 아닙니다.말이되는 메트릭을 지정하는 것은 정말 어려운 문제 일 수 있습니다.그리고 당신은 주식 시장이 무엇인지 보시고, 우리는이 하나의 메트릭에 고정하기로 결정했습니다.그리고 한동안 주식 시장은 일반적으로 경제가 어떻습니까? 일반인은 어떻습니까?그러나 그 다음에는 분리가 일어나고 우리는 일반인의 삶에 비해 매우 다른 주식 시장으로 끝납니다.어쨌든 죄송합니다.맞대 겠다는 뜻은 아니었지만 당신은

벤 (00:22:00) :
네.그래서 저는 약간의주의를 기울여야합니다. 현재로서는 GDP가 실제로 측정 기준으로 꽤 좋다고 생각합니다.기대 수명이나 삶의 만족도와 같이 관심있는 것을 자주 정의하는 경우.실제로 현재는 매우 강력한 상관 관계가 있습니다.그리고 저는 여러분이 아무것도 몰랐다고 생각합니다. [들리지 않음 00:22:17] 뒤쳐져 있거나 살 국가를 선택해야합니다. 그리고 여러분이 얻는 유일한 것은 당 GDP입니다.capita.이것은 종종 유용한 정보가 될 것입니다.내 생각은 정렬 문제와 더 일치한다고 생각합니다. 앞으로 더 분리 되어도 놀라지 않을 것입니다.

Ben (00:22:30) :
특히 우리가 결국 노동을 자본과 기계로 완전히 대체했고 사람들이 더 이상 임금을 위해 일하지 않는다고 가정 해 보겠습니다.그리고 경제 성장은 대부분 다른 기계를 만드는 기계이고 작업자는 실제로 관여하지 않습니다.경제가 10 배 증가해도 사람의 생명은 10 배 증가하지 않는다고해서 놀라지 않을 것입니다.

Jeremie (00:22:47) :
네.그것도 흥미롭고 무엇에 대한 의문을 불러 일으키는데, 이것은 GDP의 큰 측면 인 가격 발견으로 돌아갑니다.상황이 복잡 해지는 영역이 너무 많습니다.하지만 흥미로운 것은이 역사적인 기술 탐구에 대해 여러분이 모은 작업 중 일부를 보는 것입니다.이러한 메트릭의 대부분은 실제로 상관 관계가 있습니다.어느 정도는 측정하는 것이 중요하지 않습니다. 지난 2000 년 또는 지난 20,000 년 동안 극적인 일이 일어났습니다.그러나 문화 혁명, 신석기 혁명, 산업 혁명 중 하나를 측정하고 싶습니다.그리고 그것은 마치 인간의 초 유기체, 지구상의 모든 인간은 일종의 최적 또는 국소 최적 또는 그 무엇이든에 매겨진 최적화 알고리즘과 같습니다.그리고 우리는 이제 그 기울기를 정말 가파르게 오르고 있습니다.

Jeremie (00:23:44) :
AI가 그것의 연속적인 한계라고 생각하십니까?그것은 자연스러운 다음 단계와 같습니까?아니면 우리는 그것을 단계 함수와 같은 양자 도약으로 생각해야합니까?

Ben (00:23:56) :
네.정말 좋은 질문이라고 생각합니다.그리고 저는 이것이 경제 성장의 역사나 증가 된 사회적 역량을 정확히 해석하는 방법에 대한 논쟁이라고 생각합니다.또는 어떤 종류의 모호한 용어를 사용하여 사람들이 물건을 만들거나 물건을 바꾸거나 세상에서 물건을 처리하는 능력을 설명 할 때 사용하고 싶은 용어입니다.예를 들어 산업 혁명에 대한 다양한 해석 사이에 실제로 존재하는 논쟁이 있습니다.따라서 영국과 일부 주변 국가에서 대략 1750 년에서 1850 년 사이에 발생한 산업 혁명에 대한 한 가지 해석은 산업 혁명까지 성장이 매우 정체되었다는 것입니다.그리고 나서 약간의 변화가있었습니다. 어떤 흥미로운 피벗이 일어 났을 수도 있고, 아마도 산업 혁명의 반대편에 또 다른 세기가 될 수도 있습니다.어떤 이유로 기술 진보의 속도가 빨라진 곳.

Ben (00:24:55) :
그리고 사람들은 농업 기반 경제에서 산업 경제로 전환했습니다.그리고 사람들은 비 유기농 에너지 원을 사용하기 시작했습니다.그래서 더 이상 나무 나 동물 비료가 아닙니다.이제는 화석 연료와 전기 등으로 전달되는 에너지입니다.그리고 R & amp; D는 이제 경제 성장에 중요한 역할을하고 있습니다. 이전에는 그렇지 않았습니다.몇 가지 흥미로운 단계 전환이나 몇 백년 동안 일어난 일이 있습니다.우리는 단지 한 경제에서 더 빠르게 성장하고 변화 할 수있는 질적으로 다른 경제처럼 전환했습니다.

Ben (00:25:29) :
이제 기본적으로 인간 문명의 역사에 걸쳐서 성장 속도가 점점 빨라지고 있다는 장기적인 추세가 있다는 또 다른 해석이 있습니다.그리고이 해석은 경제의 전반적인 규모가 증가함에 따라 성장률 자체가 성장률 자체가 계속 증가하고 있다는 것을 말합니다.그리고 경제 규모가 계속 커지고 성장률이 계속 커지고 산업 혁명에서 눈에 띄게 폭발 한이 흥미로운 피드백 루프입니다.사람들이 이것을 알아 차릴 수있을만큼 속도가 마침내 빨라진 곳이기 때문에 사실 꽤 일관된 트렌드가있었습니다.실제로 위상 전환이 아니 었습니다.

Ben (00:26:12) :
예를 들어 열린 자선 프로젝트에서 일하는 경제학자 인 David Roodman의 최근 작업이 있습니다.이 지속적인 관점을 주장하거나 탐구하는 인간의 궤도를 모델링 한 그가 쓴 최근 보고서가 있습니다.경제사에서도 논쟁이 있습니다.경제학자 인 Michael Kramer가이 부드러운 가속화 관점과 많은 경제 역사가를 주장했습니다.사실 한 경제에서 다른 경제로 전환하는 데 이상한 점이 있습니다.

Ben (00:26:42) :
나는 단지 경쟁적인 해석이 있다고 말할 것입니다.그래서 누군가는 가끔씩 이렇게 말합니다. 조금 이상하고 약간 특이합니다.어떤 일이 일어나고 약간 불연속적인 변화가 있습니다.그리고 우리는 더 빨리 성장할 수있는 새로운 경제로 전환했습니다.또 다른 해석은 아닙니다. 실제로 이것은 꽤 일관된 숲입니다.상황이 계속 빨라지고 빨라집니다. 위상 전환이 아니고 불연속이 아닙니다. 세상이 점점 더 빠르게 가속하는 매끄럽고 정말 장기적인 추세가있을뿐입니다.

Jeremie (00:27:11) :
이것이 두 개의 다른 하위 문제처럼 얽히는 방식은 흥미 롭습니다.그중 하나는 인간이 거의 지속적으로 학습 하는가?즉, 동굴 사람들이 세대를 거듭하면서 실제로 점점 더 많은 기술을 습득하고있는 경우인데, 그것은 당신이 1 만년 이상을보아야 만 명백해지는 것입니다.아니면 기본적으로 정체되어 있고 모든 것이 진정으로 평평 해지면 이륙 할 수 있습니다.계속 축소하고 계속 축소하면 더 깊은 질문의 일부로 볼 수있는 것처럼 느껴집니다.더 이상 AI가 장악하고있는 미래 경제를 향해 반복되는 인류의 이야기가 아닙니다.그러나 오히려 완전히 생물 적 문제와 빅뱅에서 벗어나 순전히 가치 창출이 전혀 없습니다.

Jeremie (00:28:01) :
나는 그것이 삶이 진화하는 첫 순간 인 단계적 기능이어야한다고 생각한다.이것이 제가 궁금한 부분입니다. 그 관점은 제가 착각하지 않는 한 양자 도약 각도 또는 계단 함수 접근 방식을 더 많이 주장하는 것처럼 보입니다.

Ben (00:28:15) :
네.그래서 저는 그것이 옳다고 생각합니다.분명히 적어도 직관적으로 역사에는 뭔가 다른 일이 일어나는 것처럼 보이는 특정 전환이 있습니다.따라서 생명체로 인정받을 수있는 최초의 자기 복제는 어떤 의미에서 상당히 분리 된 경계와 같아야합니다.또는 그런 것들은 정말 진화의 역사를 모릅니다.하지만 먼저 미토콘드리아 같은 것을 수행하는 것이 세포의 일부가 된 것 같습니다.이것은 상당히 별개의 사건입니다. 저는 유기체 중 하나가 다른 유기체보다 작아서 [들리지 않음] [들리지 않음] 생명체의 전체 진핵 생물이 그로부터 진화했다고 믿습니다.그리고 그로부터 떨어지는 사람들과 같은 다양한 흥미로운 것들이 있습니다. 그것은 또한 직관적으로 제가 정확히 알지 못하는 불연속적인 변화처럼 보입니다.

Ben (00:29:06) :
그래서 직관적으로 어떤 것들이있는 것 같습니다.그리고 또 다른 하나는 사람들이 큰 방식으로 농업을 시작했던 산업 혁명에도 있습니다.일반적인 생각은 이것이 역사적 의미에서 실제로 상당히 빠르거나 인간으로서 자격이 될 수있는 것들이 수천 년 동안 수십 년 동안 존재 해왔다는 것입니다.그리고 아마도 서아시아와 그 이후의 다른 대륙들과 같은 수천 년 동안 사람들은 앉아있는 농업 문명으로 전환했습니다.

Ben (00:29:35) :
대략 10 만년 동안 거대한 빙하기 같았고 빙하기가 끝났다고 생각합니다. 그리고 기후가 바뀌었고 실제로 좌식 농업으로 전환하는 사람들에게 어떤면에서 더 유리 해졌습니다. 그리고 그것은 매우, 상당히 빠르게 일어났습니다. 그래서 네, 제가 개인적으로 그들에 대해 많이 알지 못한다면 적어도 그것이 정말로 느껴지는 역사적 사례가 있다고 생각합니다. 그것은 불연속적인 변화처럼 느껴집니다. 그리고 나는 또한 AI의 경우 어느 정도 그럴 것이라고 생각합니다. 내일 일어나면 안 될 것 같아요. 그러나 우리가 결국 완전 자동화에 도달하거나 AI로 인해 성장률이 다시 증가한다면 생각합니다. 사람들은 아마도 그것을 1950 년 이후로 존재해온 경제 동향의 안정된 지속으로 보지 않을 것입니다. 지금 우리는 매우 꾸준한 경제 성장률을 가지고 있고 꽤 안정적인 자동화 속도를 가지고 있습니다. 그리고 성장률이 미치게되면 사람들은 어떤 변곡점이나 피벗 점 또는 어떤 전환점이 관련된 것처럼 느낄 것이라고 생각합니다.

Jeremie (00:30:36) :
그것은 실제로 제가 정말로 논의하고 싶은 두 번째 영역에 대해 상상할 수있는 전환점만큼 좋은 전환점입니다. 이것이 바로 AI 안전에 대한 여러분의 견해입니다. AI 안전이 반드시 필요한 것은 아닙니다. AI 위험과이 아이디어라고합시다.AI 기반 세계로의 순조로운 전환, 또는 일종의 이상화 또는 실존 적으로 치명적인 시나리오로의 매우 갑작스러운 전환이라고 가정 해 봅시다.그래서 이것에 대한 견해가 있습니까?아마 나는 그것으로 일을 시작할 것입니다.그렇다면 AI 위험 주장이 강하다고 생각하는 부분과 실패한 부분에 대해 생각할 수 있습니까?

Ben (00:31:14) :
네.그래서 저는 처음에 연속성 질문이나 적어도 연속성 질문과의 관련성에 대해 조금만 말할 수 있다고 생각합니다.여러분이 언급했듯이, 이것은 또한 사람들이 AI에 대해 가지고있는 논쟁입니다. 얼마나 갑작 스러울 것인지 … AI 시스템이 기본적으로 인간의 노동을 쓸모 없게 만들고 모든 종류의 다른 미친 짓을 할 수있는 세상에 도달했다고 가정 해 봅시다.얼마나 갑작스러운 전환이 될까요?수십 년의 기간이고 점진적으로 전 세계에 퍼져 나가는 점진적인 산업 혁명의 비유와 같은 것일까 요?

Ben (00:31:48) :
화석 연료를 사용하지 않는 사람들이 화석 연료를 사용하지 않는 것 같은 것조차도 매우 긴 전환이라고 생각합니다.그런 경우와 더 비슷할까요, 아니면 훨씬 더 갑작스럽게 느껴질까요?예를 들어, 우리가 기본적으로 정상적인 상태에서 지금은 모든 것이 AI이거나 심지어 2 년 미만인 2 년의 기간과 같은 시점이 있을까요?그리고 이것은 때때로 장기 주의자 나 미래 주의자에서 일어나는 논쟁입니다 [들리지 않음 00:32:15].그리고 어떤면에서는 위험을 증가 시키거나 결국 감소시키는 어떤면에서 관련이있는 것 같습니다.

Ben (00:32:24) :
따라서 위험 증가 측면에서 갑작 스럽거나 매우 빠른 변화가 의미하는 한 가지는 갑자기 발생할 수 있다는 것입니다. 그래서 그것은 매우 연속적입니다. 여러분은 미리 많은 일들이 일어나고있는 것을 볼 수 있습니다. 정말 갑작 스럽거나 2 년이 걸리는 과정이라면 원칙적으로 지금부터 2 년이 지나면 우리는 아주 다른 세상에서 살 수 있습니다. 또한 준비 할 시간과 중간 수준의 차이에 익숙해지고 시행 착오 학습을 수행하고 위험이 무엇인지 파악할 시간이 줄어 듭니다. 위험이 아닌 것. 우리가 이것을 이야기하고 문제를 찾고 익숙해지는 방법을보고 중간 해결책을 제시하고 실수로부터 배울 수있는 기회를 깨닫는다면. 그리고 이것에 대한 가장 큰 위험은 아마도 마지막 주요 위험 범주 인 잘못 정렬 된 AI와 관련된 위험과 관련이 있다고 생각합니다. 그리고 이것들은 또한 약간 다양하며 팟 캐스트에서 이전 사람들이 그들에 대해 이야기 한 적이 있다고 생각합니다.

Ben (00:33:21) :
그러나 많은 우려는 기본적으로 우리가 앞으로 개발할 많은 AI 시스템이 마치 특정 목표를 추구하는 것처럼 어느 정도 작동 할 것이라는 점으로 요약됩니다.또는 세상에 대한 특정 사항을 극대화하려고합니다.[들리지 않음 00:33:35] 시스템이 형사 사법 관점에서 범죄율에 대한 예측을한다는 점에서 어떤 의미에서는 예측 정확도를 높이려고하는 것입니다.그리고 관심은 AI 시스템이 어떤 의미에서 멀어지고 사람들이 갖는 경향이 있고 이것이 비참한 결과를 초래할 것이라는 목표가 있다는 것입니다.우리는 사람들이 원하는 것과 다른 일을하면서 어떤 목표를 달성하는 데 아주 영리하고 아주 좋은 AI 시스템을 가지고 있습니다.

Ben (00:34:12) :
속도는 이것과 정말 관련이 있습니다. 이것이 누군가의 만연한 문제가 될 것이라고 생각한다면 AI 시스템을 만들고 배포하기 때문입니다.그리고 사람들이 가지고있는 목표와 목표 사이에는 일종의 차이가 있습니다. 이것은 해를 끼칩니다.전 세계에서 더 크고 더 큰 역할을하는 AI 시스템으로의 전환이 계속 진행되고 있다면이 문제의 덜 치명적인 버전을 알거나 작동하거나 작동하지 않는 것을 배우는 데는 시간이 많이 걸릴 것입니다.모든 사람이 점진 성과 시행 착오만으로 문제를 완전히 해결할 수 있다고 확신하는 것은 아닙니다.그러나 실제로 더 많은 사소한 버전의 우려 사항을 확인하고 사소한 경우에 작동하는 솔루션을 찾는 것이 도움이되는 것 같습니다.항상 이런 일은 매우 갑작 스럽습니다. 우리가 내일 깨어 나면 원칙적으로 인간의 노동력을 완전히 대체하고 정부를 운영하고 무엇이든 할 수있는 AI 시스템이 있습니다.

Ben (00:34:59) :
어떤 이유로 든 사용하기로 결정하면.그리고 그들은 어떤 중요한면에서 우리와 다른 목표를 가지고 있었는데, 이것은 아마도 훨씬 더 걱정스럽고 우리는 다가오는 문제를 보지 못할 수도 있습니다.네.그래서 저는 당신의 질문에 이것이 왜 주요 관심사가 아닐 수있는 이유는 무엇입니까? 아니면 어떤 식 으로든 관심사가되는 일련의 주장은 무엇입니까?

Jeremie (00:35:21) :
글쎄요, 사실 짐을 푸는 데 많은 시간이 걸렸다는 더 구체적인 우려가 있다고 생각합니다.그리고 이것은 Nick Bostrom이 그의 책 Superintelligence에서 주장하는 논쟁에 대한 관심입니다.간단히 요약하자면 여기에 티업을하겠습니다. 아이디어는 제가 이것을 도살 할 것입니다. 제가 도살하는 다양한 방법을 자유롭게 강조해주세요.하지만 아이디어는 우리가 AI 팀을 가정한다면 OpenAI와 DeepMind와 그 밖의 모든 것이 점차적으로 반복되고 반복되고 반복되는 것과 같습니다.언젠가 그들 중 하나는 통찰력이나 구매, 전체적인 컴퓨팅 또는 전체 데이터에 대한 액세스 권한을 갖습니다.그것은 시스템을 한심하고 작은 GPT-3에서 이제 갑작스런 인간 수준 이상으로 향상시키는 데 필요한 유일한 것입니다.

Jeremie (00:36:06) :
그 시스템은 인간 수준 이상이기 때문에 인간이 AI 시스템을 개선하는 방법을 알고 있기 때문에 스스로 개선하는 방법을 알 수 있습니다.그래서 아마도 스스로를 개선하는 방법을 알아 내고 루프가 매우 빡빡하므로 AI가 스스로를 개선 할 수 있기 때문에 재귀 루프를 얻을 수 있습니다.그리고 결국 그것은 너무 똑똑해서 압도 할 수 있습니다. 지능을 가진 포획 자들이 세상을 장악하고 완전히 비참한 결과로 이어질 수 있다고합시다.적어도 대략적으로 맞습니까?

Ben (00:36:30) :
네.그래서 나는 그것이 기본적으로 대략 옳다고 생각합니다.네.그래서 생각하는 한 가지 방법은 이러한 정렬 문제의 스펙트럼이 있다고 생각합니다.그리고 그들 중 일부는 시간이 지남에 따라 점진적으로 많은 AI 시스템을 만들고 목표가 우리와 다르며 미래와 그런 종류의 통제력을 점차적으로 상실하는 미래의 모호한 관점에 있습니다.그리고 훨씬 더 극단적 인 곳은 하나의 AI 시스템이 있고 아주 갑자기 도착하는 것과 같습니다.그리고 그것은 어떤 의미에서 광범위하게 초 지능이며 실제로 중요한 전례가 없습니다.그리고 그 시스템은 개별적으로 매우 빠르게 세계에 혼란을 야기합니다.이 하나의 매우 파괴적인 시스템으로 크게 도약하는 것처럼 확실히 우려되는 버전입니다.Nick의 책 Superintelligence와 내러티브 등에서 강조된 것 같습니다. 방금 설명한 것 같습니다.

Ben (00:37:18) :
그래서 인공 지능 위험에 대한 저 자신의 생각 중 상당수는이 스펙트럼의 더 극단적 인 끝에 대한 것이었기 때문에 몇 가지 이유로 초 지능과 같은 곳에서 우려가 나타납니다.하나는 제가 처음 만난 버전이고 특히 관심을 갖게 한 부분이라고 생각합니다. 이것은 부분적으로 개인적인 관심 이유라고 생각합니다.

Ben (00:37:39) :
그리고 다른 사람들은 이것이 단지 많은 AI 얼라인먼트 연구자들이이 버전의 관심사를 염두에 두지 않더라도 단지 일이라고 생각합니다.아직도 꽤 영향력 있고 잘 알려져 있다고 생각합니다.그리고 종종 누군가가 AI 위험에 대해 아는 것이 있다면 이것이 떠오르는 우려의 버전입니다.주목할 가치가있는 특별한 것 같습니다.그래서 제 생각 중 일부는 여러분이 실제로 이처럼 갑작스런 도약을하게되었고 오늘날과 같은 주요 AI 시스템이 실제로는없는 것이 그럴듯한 문제에 관한 것입니다.그리고 갑자기 어딘가에있는 어떤 연구원이이 중요한 돌파구를 갖게되고 여러분은이 단일 시스템으로 끝납니다.지루한 이유로 이것에 대해 상당히 회의적인 것 같습니다.

Ben (00:38:15) :
따라서 초기 지루한 이유 중 하나는 기술이 작동하는 방식이 아니기 때문입니다.좋아요의 관점에서 시작한다면 기술이 일반적으로 세상을 어떻게 변화시키는 지 살펴 보겠습니다.일반적으로 누군가가 무언가를 개발하는 데 수십 년이 걸리는 장기적인 프로세스이고 긴 개선 프로세스 인 경우입니다.그리고 그것은 다른 분야보다 먼저 일부 분야에서 포인트이고 다른 분야보다 먼저 일부 분야에서 유용합니다.그리고 사람들은 그것을 활용하기 위해 무료 발명품을 개발해야합니다.그리고 사람들은 그것을 실제로 적절하게 사용하는 방법을 알아 내야합니다.그리고 예측하지 못한 많은 조정과 문제가있어 프로세스를 느리게 만듭니다.전기처럼 전기 모터가 19 세기 초반에 발명되었다고 생각합니다.그러나 전기 모터는 1930 년대까지 미국 공장에서 우세하지 않습니다.

Ben (00:39:02) :
또는 20 세기 중반의 최초의 디지털 컴퓨터 였지만 90 년대부터 생산성 통계에 큰 의미로 표시됩니다.그리고 그럼에도 불구하고 다른 중요한 맥락에서 널리 사용되는 것과는 달리 실제로는 여전히 많은 국가가 아닙니다.그리고 경제의 더 큰 부분과 같은 의미에서는 아닙니다.그래서 그것은 거기에서 시작이되고 당신은 AI의 세부 사항을 너무 구체적으로 보지 않고 “우리가 가진 다른 기술과 같다면 나는 무엇을 기대할까요?”라고 말하는 것과 같습니다.아마도 그것은 경제적 변화 일 것입니다. 그것은 점진적인 일이 될 것이고, 발생하는 많은 성가신 일들이 될 것입니다.

Jeremie (00:39:35) :
그것에 대해 조금 조사하기 위해서.그래서 제가 상상하는 것 중 하나는 우리가 선택한 기간에 상관없이 지난 100 년 동안 기술의 발전과 보급을 가속화 시켰습니다.우리는 인터넷이하는 역할 등에 대해 꽤 많이 이야기했습니다.특히 제품을 디자인하는 팀, 제품을 배포하는 팀, 제품을 판매하는 팀 간의 피드백 루프를 강화하는 측면에서 커뮤니케이션이 필요합니다.통일성이 커뮤니케이션에 의해 주도되는 정도까지.”내부적으로 일관된 단일 AI 시스템이 있고 본질적으로 무한이 아니라 기계 시간에 맞춰 피드백 루프를 강화할 수있는 경우”라는 의미에서이 주장을 약화시킬 수 있습니까?그 위치가 흥미 롭다고 생각하십니까? 제가 묻고 자하는 것이 아닐까요?

Ben (00:40:28) :
그래서 흥미롭지 만 설득력이 없다고 생각합니다. 그래서 저는 경제적으로 관련된 모든 생산 작업을 제공 할 수있는 매우 광범위하게 사용할 수있는 AI 시스템으로 갑자기 도약한다고 상상하기 위해 뛰어 드는 것과 같은 아이디어가 있다고 말하고 싶습니다. 칩 채굴, 투표 투표소 운영, AI 연구, 더 많은 컴퓨팅 리소스 구축, 군사 전략없이 관리 할 수 ​​있습니다. 갑자기 존재하는 단일 시스템이 있다고 상상하면 외부 요인과 상호 작용하거나 외부 리소스를 사용하지 않고이 모든 작업을 자체적으로 수행하는 것입니다. 통신 효율성 비용이 많이 줄어들었기 때문에 일이 더 빨리 발생할 수 있다는 직감이있는 것 같습니다. 하지만 이런 질문이 있습니다. 이것이 개발이 작동하는 방식이라고 상상해야합니까? 갑자기 이러한 모든 기능을 제공하는 단일 시스템이 될 것입니다. 그리고 AI의 경우에 대해 회의적 일 것입니다. 또 다소 지루한 이유로도 그렇습니다.

Ben (00:41:32) :
그래서 우리는 당신이 동시에 다른 분야에서 발전 할 수 있다는 것을 압니다.그래서 … 아마도 많은 청취자들이 이것, 언어 모델 또는 OpenAI가 개발 한 최근 시스템 GPT-3에 익숙하다고 생각합니다.이것은 대략 같은 시간에 단일 교육 과정을 통해 많은 다른 작업을 꽤 잘 수행 한 시스템의 예입니다.그래서 저는 기본적으로 웹 페이지의 방대한 코퍼스에서 훈련을 받았습니다.그리고 저는 기본적으로 제가 접한 문서에서 이미 접한 단어를 기반으로 가장 덜 놀라운 다음 단어를 예측하도록 훈련 받았습니다.

Ben (00:42:08) :
따라서 뉴스 기사의 헤드 라인을 작성하는 등의 작업에 사용할 수 있습니다. 그런 다음이 헤드 라인이 주어지면 기사에서 가장 놀라운 텍스트가 무엇인지 생각해 보겠습니다.그리고 사람들이 발견 한 한 가지는 실제로 다양한 작업을 수행하는 데 사용할 수 있다는 것입니다.예를 들어 스페인어로 문장을 작성하고 영어 번역이라고 말할 수 있습니다. 문장이 비어 있습니다.그리고 시스템은 적어도 다음에 발견 할 놀라운 것은 기본적으로 그것의 영어 번역과 같을 것이고 그것을시를 쓰는 데 사용할 것입니다.이 Emily Dickinson시와 그런 종류의시에서 가장 놀라운 결말은 무엇입니까?

Ben (00:42:42) :
그러나 어떤 의미에서 많은 다른 기능이있는 이러한 경우에도 한 번에 온라인 상태가됩니다.당신은 여전히 AI가 다른 것들에서 얼마나 좋은지에 대해 분명히 변이를 볼 수 있습니다.따라서 사용 가능한 컴퓨터 코드와 같이 대부분의 경우 쓰기가 매우 나쁩니다.약간은 할 수 있지만 기본적으로 현재로서는 유용한 방식으로 할 수 없습니다.Jabberwocky 스타일의시처럼 쓰는 데 꽤 능숙합니다.이 중 하나가 다른 시보 다 먼저 나왔습니다.그리고 일부 기능이 다른 기능보다 우선하는 확장되는 경우가 될 수도 있다고 생각할 이유가 있습니다.또한이 GPT-3 스타일을 통해서만 순수하게 생산할 수없는 몇 가지 기능이 있습니다.이 대규모 온라인 항목에서 훈련시킬 수 있습니다.

Ben (00:43:23) :
국방부 내부 메모를 번역하려면 다른 것에 대해 교육을 받아야합니다.의료법처럼 쓰길 원한다면 아마 [들리지 않음 00:43:30]은 당신을 위해 그렇게하지 않을 것입니다.슈퍼마켓 가격을 책정하거나 가격 인벤토리에서 설정하거나 실제로 회의를 예약 할시기를 알고있는 이메일을 개인화하려는 경우.다른 훈련 방법이 필요합니다.또는 인간보다 더 잘 수행하고 싶다면 다른 훈련 방법이 필요할 것입니다. 왜냐하면 당신은 그것을 줄 필요가 있기 때문입니다. 기본적으로하는 것은 사람에게 가장 덜 놀라운 일이 무엇인지 말하는 것입니다.인터넷에 글을 썼습니다.하지만 사람보다 더 잘하고 싶다면 다른 것을 사용해야합니다. 일종의 피드백 메커니즘입니다.

Ben (00:43:55) :
따라서 기본적으로 다른 기능이 다른 시간에 온라인으로 제공 될 것이라고 생각하는 이유입니다. 또한 연구자들에게는 실제로 나타나지 않는 여러 특정 영역에서 발생하는 성가신 내용이 많이있을 것입니다. 하지만 공장에서 실제로 전기 모터를 사용하는 사람들에게 [들리지 않음 00:44:07] 법칙과 같은 것을 적용하려는 경우, 공장 현장을 재 설계해야하는 것과 같은 문제가 발생합니다. 더 이상 중앙 증기 기관을 기반으로하지 않기 때문입니다. 하드웨어를 사용하는 것을 재 설계해야합니다. 작업자가 실제로이 기능을 활용하기 위해 사용하는 프로세스를 재 설계해야합니다. 일어나야 할 규정이 있습니다. 그리고 아마도 이러한 것들은 적어도 처음에는 다른 팀에서 어느 정도 처리해야 할 것입니다. 그리고 그들 중 일부는 다른 것보다 어렵거나 다른 것보다 다른 자원을 필요로 할 것입니다. 그리고 이것이 내가 온라인으로 올 것이라고 기대하는 긴 말과 같았다면 기본적으로 놀라 울 것입니다. 이것은 실제로 다른 작업에 대해 꽤 다른 지점에서 세상에서 정말 유용 할 것입니다.

Jeremie (00:44:40) :
흥미 롭군.네, 그게 완벽합니다.저에게 흥미로운 것은 이론가가 만들 시스템을 상상하면서 만드는 오류의 종류라는 것입니다. 그리고 이것이 오류가 아니라이 시나리오는 쉽게 통과 될 수 있습니다.그러나 이는 실제로 시스템과 경제의 최적화보다는 이론적 최적화에 초점을 맞춘 사람의 심리학에 매핑되는 것처럼 보이는 흥미로운 반대입니다.흥미 롭군.따라서이 중 어느 것도 반복적으로 자체 개선하고 [누화 00:45:21] 개발할 수있는 능력을 갖춘 AI 시스템이 미래의 어느 시점에서 가능하지 않을 것이라고 암시하는 것 같습니다.

Jeremie (00:45:23) :
이 질문에는 두 부분이 있습니다.먼저 A 씨, 그렇다고 생각하십니까, 아니면 그러한 시스템을 구축 할 수있을 것이라고 생각하십니까?그리고 B, 그러한 시스템이 구축 될 것입니까 아니면 구축 될 것이라고 생각하십니까?우리를 재귀 적으로 자기 개선하는 AI에 도달하기 위해 쌓이는 일련의 인센티브가 있습니까? [foom 00:45:47], 결국에는 무엇이든할까요?그럴듯한 이야기인가요?

Ben (00:45:51) :
네.그래서 여기에 몇 가지가 있습니다.그래서 첫 번째 부분은 재귀 적 자기 개선이 정말로 중요 할 것이라는 점이 저에게 분명하지 않다는 것입니다.따라서 분명히 피드백 루프가 있으며 향후 피드백 루프가 될 것입니다.따라서 우리는 더 제한된 방식으로 많은 기술을 봅니다.따라서 존재 소프트웨어는 소프트웨어 개발에 유용합니다.소프트웨어 개발자는 소프트웨어를 사용하고 컴퓨터는 컴퓨터 설계에 유용합니다.Nvidia 나 하드웨어 제조업체와 같은 사람들이 사용할 컴퓨터가 없었다면 직업이 훨씬 더 어려워 질 것입니다.따라서 기술 개발을 지원하거나 기술이 다른 기술 개발을 지원 한 경우가 많습니다.일반적으로 재귀 적이 지 않거나 일반적으로 자체적으로 개선되는 것과 똑같은 아티팩트가 아닙니다.

Ben (00:46:44) :
그리고 AI의 경우 재귀적일 것으로 예상 할만한 타당한 이유를 반드시 찾지는 않습니다.올바른 아키텍처를 찾는 AI 개발의 맥락에서 AI가 점점 더 많이 적용될 것으로 기대합니다.또는 기본적으로 다른 시스템을 개발하거나 제대로 작동하도록 만드는 가장 최적의 방법이 무엇인지 알아 내거나 학습합니다.하지만 다른 시스템을 훈련시키는 데 도움이되도록 개발 된 시스템이 아니라 개별 시스템이 자체적으로이를 수행한다고 생각할 강력한 이유를 반드시 확인하지는 않습니다.소프트웨어와 같은 방식은 저절로 개선되지 않습니다.나는 그것이 재귀 적이라는 것에 대한 큰 이점을 실제로 보지 못합니다.그렇게했다면 그럴 수도 있지만 왜 재귀 적인지, 왜 그것이 본질적으로 더 매력적인 지 모르겠습니다.어떤면에서는 덜 매력적으로 보일 수 있습니다.어쩐지 더러워 보이거나 이것이 약간 모듈식이라면 멋져 보입니다.

Jeremie (00:47:33) :
예, 저는 어느 정도 공학적 관점에서이 주장을 조금 강화하기 위해 상상할 수 있습니다 … 그래서 다른 시스템의 추상화가 있습니다.이 용어는 시스템 A가 있고 시스템 B가 있다고 말할 때 사용합니다.시스템 A가 자체적으로 개선되거나 시스템 B가 개선하고있을 수도 있고 시스템 A가 개선되고있을 수도 있습니다.이 경우 제가 생각하는 것은 기계 시간에 결정적으로 작동하는 폐쇄 형 시스템과 같은 것을 다루는 추상화라고 생각합니다.따라서이 형태의 도약과 같이 정의하는 내 마음의 주요 차이점은 이것이 자체 최적화 또는 시스템 A가 시스템 B를 개선한다는 사실이 마이크로 초 정도의 순서로 발생한다는 것입니다.또는 인간이 그 과정에 개입하지 않고 궁극적으로 결과가 우리의 기대에서 크게 벗어날 수있는 결과에 놀라게되는 이유는 무엇입니까?

Ben (00:48:33) :
네.그래서 저는 아마도 주요 차이점 중 하나가 개선 과정에 기본적으로 관련된 노동이라고 생각합니다.따라서이 AI 피드백 루프에 대한 일반적인 카운터는 변경 속도를 실제로 높이는 데 매우 중요합니다.20 세기 초에 연구 자나 엔지니어가했던 많은 작업이 더 이상 수행되지 않는 피드백 루프가 이미있는 것 같습니다.완전히 자동화되었습니다.따라서 실제로 손으로 계산하는 것은 엄청난 시간 낭비와 같습니다.공학을위한 연구 노력과 같습니다.따라서 사람들이 작업에 소비하는 시간 측면에서 방대하고 방대한 자동화가 이루어졌고 그 중 상당 부분이 어느 쪽이든 자동화되었습니다.그런 의미에서 기술 발전이 기술 발전에 도움이 된 정말 강력한 피드백 루프가있었습니다.

Ben (00:49:25) :
그러나 적어도 20 세기 중반 이후로 우리는 적어도 선도 국가에서 기술 발전과 같은 생산성 증가율의 증가를 보지 못했습니다.실제로 느려진 것 같습니다.그리고 그 비율은 현재 미국의 20 세기 초와 비슷합니다. 따라서 분명히이 피드백 루프는 그 자체로는 충분하지 않으며 상쇄되는 것이 있으며 아마도이 아이디어와 같은 것을 찾기가 어려워지고 있음을 의미 할 것입니다.현상.기술이 새로운 것을 만드는 데 도움이되지만, 만들고 싶은 각각의 새로운 것을 이전의 것에서 만드는 것이 조금 더 어렵습니다.쉬웠다면 이미했을 테니까요그래서 그것은 하나의 일반적인 반론입니다.

Ben (00:50:01) :
그리고 그에 대한 반박 론은 우리가 연구에 관련된 많은 작업을 자동화하고 그 작업을 수행 할 기계를 만든 다음 기계를 개선하는 것과 같습니다. 인간 노동은 항상 그것의 일부였습니다. 그리고 만약 당신이 자본에 의해 채워지는 인간 노동이 기본적으로 보완적인 이야기를 가지고 있다면. 우리는 계속 더 차가운 기계를 만들고 더 많은 기계를 만드는 노동 병목 현상이 있다고 생각합니다. 그러나 고정 된 양의 연구 노력으로 인해 기계의 차가움이나 기계의 수량에 대한 수익이 감소하고 있습니다. 따라서 연구 노력이 실제로 병목 현상입니다. 이는 연구자가 수행하거나 연구자가 소유 한 추가 멋진 기술의 한계 가치를 실제로 제한하는 이러한 감소하는 수익 현상을 만듭니다. 그리고 연구자들의 수는 인구와 같은 것들과 연결되어 있기 때문에 그렇게 쉽게 바꿀 수없는 꽤 일정한 기하 급수적 인 속도로 증가합니다.

Ben (00:50:57) :
그래서 제가 말했죠. 실제로 인간의 노동 만 그림에서 완전히 제거하면 사람들은 더 이상 R & amp; D 나 제조에 관여하지 않습니다.그렇다면이 경우 더 이상 수익 감소 효과가 없을 수도 있고, 고정 된 노동량과 같이 자본에 대한 수익이 감소하는 병목 현상이 더 이상 없을 것입니다.아마도 그것은 그저 자신에게 직접적으로 피드백을주고, 감소하는 수익은 어떤 중요한 의미에서 사라집니다.그리고 피드백 루프는 루프에서 사람을 완전히 제거하면 실제로 시작됩니다. 피드백 루프가 미래에 우리가 사용했던 비명 시적 피드백 루프와 다른 이유를 말할 수있는 이야기가 될 것입니다.지난 세기.

Jeremie (00:51:29) :
그리고 저는 인간의 자기 개선에 대한 피드백이 있다고 생각합니다.여기서는 시계 시간이 두드러진 특징이라고 생각하지만 생산성 향상을 위해 노력하고 있으며,이를 제정하기 위해 노력하고 있습니다.나는 나 자신을 향상시키는 방법을 개선하려고 노력합니다.원칙적으로 나는 무한한 수의 파생물 또는 물질에 가깝게 그렇게한다고 생각합니다.기하 급수적 인 특성이 있지만 분명히 저는 아직 Elon Musk가 아닙니다.어려운 도약을하지 못해서 어딘가에 차이가 있습니다.

Ben (00:52:05) :
네.그래서 제가 말하고 싶은 것은 아마 당신의 말이 맞다고 생각합니다. 그것은 실제 현상입니다.많은 규모가 관련되어 있지만 스스로 개선해야 할 정도는 기술보다 훨씬 적다고 생각합니다.연구원 단위가 노트북에있는 사람이라고 가정 해 봅시다.그리고 그것이 연구를 생산하는 것입니다.그 사람은 실제로 코딩을 더 잘할 수 있고, 일을 빠르게하는 방법을 더 잘 배울 수 있고, 배우는 방법을 배울 수 있습니다.그러나 생산성의 실제 차이는 2020 년 평균 연구원에 비해 인적 자본 측면에서 10 배 정도 증가하는 데 도움이 될 수 있습니다.당신의 노트북은 지금보다 훨씬 더 나은 것을 얻을 수 있다는 측면에서 올라갈 수있는 [들리지 않음 00:52:44]이 더 많은 것 같습니다.

Jeremie (00:52:49) :
안타깝게도 그럴 것 같지만 계속 노력하면됩니다.그게 필요한 것 같아요.

Ben (00:52:56) :
네.랩톱의 개선 속도에 대한 경주에서 행운을 빕니다.

Jeremie (00:52:59) :
네.감사.이륙하면 알려 드리겠습니다.정말 흥미 롭습니다. 여러분이 이것에 대해 너무 많은 생각을 해왔고 여러분이 이것에 대해 생각하는 방식에있어서 약간의 변화를 볼 수 있습니다. 확실히 전에 고려하지 않은 측면이 있습니다.그것은 시스템 관점에서 오는 경제학 관점에서 비롯됩니다.이것이 기술 AI 안전 전문가들 사이에서 특히 드물다고 생각하는 방식입니까?아니면 그것이 채택되는 것을보기 시작 했습니까? 저는 여전히 풍경이 어떻게 생겼는지, 그리고 시간이 지남에 따라이 주제에 대한 견해가 어떻게 바뀌고 있는지 함께 모 으려고 노력하고 있습니다.예를 들어 2009 년을 기억하기 때문에 [들리지 않음 00:53:45]이었습니다.기본적으로 모든 사람들이 상자 속의 뇌에 대한 생각이나 기계 자체가 향상되는 빠른 이륙에 대해 이야기했습니다.

Jeremie (00:53:54) :
지금은 OpenAI, Paul Christiano, 그리고 Future of Humanity Institute에서 진행중인 많은 작업 사이에서 실제로처럼 보이지만 상황이 바뀌고 있습니다.그리고 저는 그 변화, 타임 라인, 그리고이 모든 주제들과 관련하여 커뮤니티가 현재 어떤 위치에 있는지에 대한 여러분의 관점을 얻고 싶습니다.

Ben (00:54:11) :
네.그래서 저는 확실히 변화가 있었다고 생각합니다.이 커뮤니티의 중앙값이 그것에 대해 생각하고 있다고 가정 해 봅시다.한 방향으로 생각하는 사람들의 관점에서 다른 생각으로 이동하는 것이 얼마나 많은지 저에게는 조금 모호합니다.더 많은 사람들이 기존에 다른 사고 방식으로 커뮤니티에 진입하는 것에 비해.사람들이 좀 더 구체적인 방식으로 생각하는 요소가 있다고 생각합니다.많은 오래된 분석에서 생각하는 것은 매우 추상적입니다.아주 많이 의존합니다… 그것은 정확히 수학적이 아니라 사람들이 추상적 인 대수를하는 것과 같습니다.하지만 분명히 더 수학적 사고 방식과 같을 것입니다.

Ben (00:54:58) :
시간이 지남에 따라 변화합니다.그 이유 중 하나는 매우 정당하다고 생각합니다. 2000 년대 중반 사람들이 이것에 대해 이야기 할 때입니다.머신 러닝은 정말 큰 일이 아니 었습니다.사람들은 논리 지향 시스템이 AGI가 어떻게 보일 것이라고 생각했습니다.정말 생각할 모델로 사용하기 위해 모든 AGI-ish를 실제로 보았던 모든 것.그리고 저는 기계 학습이 시작되고 사람들이 이러한 시스템을 갖기 시작했다고 생각합니다. 분명히 이것이 AGI가 아니며 아마도 AGI가 그것과 매우 다를 것입니다.AGI로가는 길에있는 작은 디딤돌과 같습니다.마치 AGI 같은 것 같네요.

Ben (00:55:41) :
이러한 구체적인 예를 들으면 약간 다른 방식으로 생각하게됩니다. 이전에 가졌던 추상 프레임 워크의 맥락에서 설명하기가 실제로 약간 어렵다는 사실을 깨닫기 시작합니다. 따라서 GPT-3에는 목표가 있거나이 동작을 예측하려는 경우 얼마나 유용합니다. 다음 단어가 놀랍지 않은 것을 만들어내는 것이 목표라고 생각하지만 그렇게 생각하는 것이 옳다고 생각하지 않습니다. 이 행동을 예측하는 데 얼마나 유용한지는 분명하지 않습니다. 출력을 막기 위해 사람을 죽이는 것과 같은 미친 짓을 할 위험이없는 것 같습니다. 왠지 잘 맞지 않는 것 같은 느낌이 듭니다. 또한 더 구체적인 응용 프로그램을보고 생각하는 것뿐입니다. 예를 들어 Paul Christiano가 어느 정도 낙관적으로 말한 것처럼 말한 것 같습니다. 큰 돌파구가없는 미래.” 사람들에게 전부 또는 전부가 아닌 더 지속적인 의미로 생각하도록합니다. 중간 변형의 디딤돌을 볼 수있는 것과 같습니다.

Ben (00:56:41) :
그래서 좀 더 구체적이면서 중간 응용 프로그램을보고 있다고 생각합니다.그리고 추상적 인 구성에 대해 좀 더 회의적인 느낌이 들었습니다. 단지 당신이보고있는 것에 맞추기가 어렵거나 효과가있는 일부 힘 때문일 수도 있습니다.일반적으로 나는 사물에 접근하는 더 수학적이고 고전적인 방법이 여전히 상당히 유용하거나 사물에 접근하는 주된 방법이라고 생각하는 사람들이 많이 있다고 생각합니다.

Jeremie (00:57:09) :
네.나는 실제로 논증을 들었습니다. GPT-3와 같은 시스템이 당신이 설명한 방식대로 병리학적인 것이 될 것이라는 논증은 꼭 들어 보지 않았습니다.그러나 적어도 그런 시스템이 정말로 심하게 잘못 될 수있는 세계를 설명하는 내부적으로 일관성있는 소리를 들려 줄 수있는 이야기.이 경우 GPT-10을 상상 해보세요.그리고 당신은 반드시 영광스러운 자동 완성 작업처럼 이것을하는 시스템을 가지고있었습니다.하지만 그 작업을 수행하기 위해 분명해 보이는 한 가지는 세계의 상당히 정교한 모델을 개발하고 있다는 것입니다.이것이 암기인지 실제 일반화 가능한 학습인지에 대한 논쟁이 있습니다.하지만 GPT-3에 의심의 이점을 제공하고 일반화 가능한 학습이라고 가정하겠습니다.이 경우 시스템은 점점 더 정교한 세계 모델, 더 크고 더 큰 컨텍스트 창을 계속 개발합니다.

Jeremie (00:58:06) :
결국 세계의 모델에는 GPT-3 자체가 존재하고 세계의 일부라는 사실이 포함됩니다.결국 이러한 실현은 그래디언트를 최적화하려고 시도하면서 “오, 나는 일종의 와이어 헤딩을 통해 내 그래디언트를 직접 제어 할 수 있습니다.”라는 사실을 깨닫게합니다. 일반적으로 [crosstalk 00:58:25] 커뮤니티에서 프레임이 구성됩니다.등등.설명하신 문제가 이런 사고 방식에 적용되는 것 같습니다.하지만 GPT-3이 어떻게 이러한 초록 중 일부에 대한 구체적인 생각을 이끌어 냈는지 흥미 롭습니다.

Ben (00:58:39) :
네.이러한 구체적인 시스템을 갖는 것도 매우 유용하다고 생각합니다. 왜냐하면 그것들이 직관에 차이를 강요한다고 생각하기 때문입니다.또는 컴백과 가정의 차이를 표면에 강요하십시오.예를 들어, 일부 사람들이 이러한 GPT 시스템에 대해 우려를 표명 한 경우가 있습니다. GPT-10을 사용하는 경우 매우 위험 할 수 있습니다.사실 저는 이것을 짐작하지 않았을 것입니다.아니면 다른 사람들이이 직감을 가지고 있지 않았다고 생각하지 않았을 것입니다.내 기본 직관은 기본적으로 시스템이 작동하는 방식에 비해 너무 대략적인 근사치이기 때문입니다.일부 매개 변수의 모델이며 텍스트 코퍼스처럼 노출됩니다.기본적으로 X 단어를 출력하고 다음 단어가 실제로 옳거나 맞지 않습니다.또는 기본적으로 데이터 세트의 실제 단어에 비해 출력을 덜 놀라게하는 그라디언트가 있습니다.

Ben (00:59:35) :
기본적으로 단어 출력에 최적화되어 있습니다. 온라인 어딘가에있는 텍스트에서 X 단어로 찾는 것은 놀라운 일이 아닙니다.그리고 GPT-10을 생각할 때 “와, 그냥 단어를 출력하는 것 같아요. 온라인 웹 페이지에서 찾는 건 그리 놀랍지 않네요.”그것이하는 일과 똑같습니다.그리고 그것이 사람들로 하여금 세상이나 무언가를 파괴하도록 이끄는 출력 단어와 같은 일을한다고 가정 해 봅시다.온라인에서 찾을 때 가장 놀랍지 않은 단어 일 때만 그렇게 할 것 같습니다.세상을 파괴하는 단어가 아니라면, 사람들은 보통 온라인에서 그런 종류의 글을 쓰지 않기 때문에 온라인에서 찾는 것이 놀랍습니다.그렇다면 경사 하강 법 과정에서 이상한 일이 발생한 것 같습니다.

Jeremie (01:00:15) :
그래서 프레임을 만드는 데 정말 좋은 방법이라고 생각합니다.저는 그것에 대한 반론이 마치 20 만년 전의 인간을 섹스 옵티 마이저 또는 이와 비슷한 것으로 볼 수 있다고 생각합니다.그리고 우리는 우리의 진화가 전개되면서 우리가 그렇지 않다는 것을 알게됩니다.제 생각에 여기에있는 경우는 신경망이 실제로 최적화하는 것이 무엇인지에 대한 깊은 질문이 있습니다.손실 함수를 최적화하고 있는지 또는 그래디언트가 업데이트 될 때마다 킥을 느끼는지는 실제로 명확하지 않습니다.“오, 틀렸어요.이것으로 모든 요금을 업데이트하십시오.”

Jeremie (01:00:58) :
그 킥이 아파요?그렇다면 이것이 이러한 시스템에 의해 최적화되고있는 것이 진정한 것일까 요?그리고 그게 사실이라면, 우리가이 주변을 둘러싸고있는이 전체 영역이 분명히 내부 정렬이 있습니다.하지만 그것은 깊은 토끼 구멍입니다.

Ben (01:01:15) :
그래서 저는 시스템을 훈련 할 때 사용되는 손실 함수와이 시스템이하려는 것처럼 작동하는 것 사이에 차이가 있다는 데 동의합니다.그리고 정말 간단한 방법이 하나 있습니다. 그것은 강화 학습 시스템을하는 체스처럼 시작하는 것입니다.그리고 보상 함수, 그와 관련된 손실 함수가 있지만 아직 훈련하지 않았습니다.그것은 체스에서이기려고하는 것처럼 행동하지 않을 것입니다. 왜냐하면 그것은 가장 뻔뻔한 예 중 하나와 같기 때문입니다. 단지 합산되지 않습니다.

Ben (01:01:40) :
그리고 분명히 시스템을 훈련시키는 이식 사례가 있습니다. 예를 들어 비디오 게임에서 왼쪽에 녹색 상자가 열리고 오른쪽에 빨간색 상자와 같은 녹색 상자가 열릴 때마다 점수를 얻는다고 가정 해 보겠습니다.왼쪽에 빨간색 상자가 있고 오른쪽에 녹색 상자가있는 새로운 환경에 배치합니다.지금까지 제공 한 교육 데이터는 실제로 구분하기에 충분하지 않으며 실제로 보상을받는 것과 같은 소리를냅니다.빨간색 상자를 열기위한 것입니까, 아니면 왼쪽에있는 상자를 열기위한 것입니까?예를 들어 시스템이 왼쪽의 상자를 열어도 실제로 손실 함수가 아닌 것이 빨간색 상자이거나 그 반대 일지라도 놀라지 않아야합니다.잘못된 방식으로 일반화되는 것은 놀라운 일이 아닙니다.

Ben (01:02:21) :
그래서 저는 일반화 오류가있을 수 있다는 데 확실히 동의합니다.GPT-3와 같은 경우와 같이 왜 결국 발생하는지 알기 위해 고군분투합니다. 저는 기계적으로 무슨 일이 일어날 지, 어디에서 일어날 지 … 그러니 문제가 텍스트이기 때문이라고 가정 해 봅시다.누군가가 읽은 텍스트를 출력하는 생성 시스템은 모든 사람을 죽이는 무언가에 대한 엔지니어링 청사진입니다.이것이 실존 적 위험을 초래하는 비 공상 과학 버전 같은 것이 있는지는 모르겠지만 그것이하는 일이라고합시다.가끔은 거의 … 대답하거나 뭔가를 놓치고있는 것처럼 느껴집니다.하지만이 등급 설계 프로세스가 왜 그렇게하는 정책을 갖게되는지 기계적으로 이해하지 못합니다.왜 그런 방향으로 최적화 될까요?

Jeremie (01:03:06) :
내가 줄 대답은 이것에 대해 충분히 생각하지 않았을 것입니다.그러나 원칙적으로 상상하면 무제한의 컴퓨팅, 무제한의 데이터 확장 등을 가정 해 보겠습니다.이 모델은 생각하기 시작하고 점점 더 많이 생각하고 세상에 대한 더 크고 더 완전한 그림처럼 발전한다고 가정 해 보겠습니다.다시 말하지만, 최적화하려는 대상에 따라 그라디언트를 최소화하기 위해 최적화하려고한다고 가정합니다.이것은 매우 과정입니다. 저는 어떻게 든 틀렸다고 생각하지만, 신경망이 걷잡을 때마다 기분이 나쁘다고 상상하는 것이 옳다고 생각합니다.모르겠어요.

Ben (01:03:47) :
기분이 나쁘지만 실제로 말이되지 않는다고 생각합니다.제 생각에는 특정 매개 변수가 있고 무언가를 출력하고 훈련 세트와 비교합니다.그런 다음 불일치에 따라 [들리지 않음 01:04:02] 다른 방향으로 걷어 찼습니다.하지만 실제로 내면이 있다고 생각하지 않습니다… 실제로 기분이 나쁘다는 의미는 없다고 생각합니다.막대기처럼 움찔 거리는 매개 변수가 있습니다.이 사람은 막대기를 들고 불일치 또는 불일치 부족을 기준으로 매개 변수를 다른 방향으로 밀고 결국 어딘가로 끝납니다.

Jeremie (01:04:23) :
네.그래서 이것은 그 자체로 가장 멋진 측면 중 하나라고 생각합니다.나는 여기서 내면의 정렬 흥분에 산만해질 것입니다.하지만 그것은 정렬 논쟁에서 저에게 가장 멋진 측면 중 하나입니다. 주관적인 경험과 의식에 대해 궁금해하는 지점에 도달하기 때문입니다.“이건 일종의 학습 과정”이라고 말하지 않고 대화를 나눌 방법이 없기 때문입니다.그리고 학습 과정은 인간과 같은 인공물을 생성하는 경향이 있습니다. 그것은 기본적으로 모든 생명체와 같은 주관적인 경험을 가지고있는 것처럼 보이는 뇌입니다.아메바를보고 현미경으로 움직일 수 있습니다.서로 다른 방식으로 다른 순간에 고통과 기쁨을 경험하는 것 같습니다.

Jeremie (01:05:02) :
어쨌든 유사하게 해석 될 수있는 방식으로 작동하는 이러한 시스템을 보는 것은 적어도 실제 Mesa-objective, 최적화 프로그램이 실제로 개선하려는 기능 및 주관적인 경험 사이의 연결 고리가 무엇인지에 대한 질문을 불러 일으 킵니다.나는 거의 잘 이해하지 못하는 영역으로 가고 있습니다.그러나 아마도 나는 생각을 떠날 수 있습니다. 이것은 또한 문제의 정말 흥미롭고 흥미로운 측면이라고 생각합니다.의식과 주관적 경험이 이러한 기계의 맥락에서 연구 할 역할을한다고 생각하십니까?아니면 당신은-

Ben (01:05:44) :
I think not so much of that. There’s a difficulty here where there’s obviously the different notions of consciousness people use. So I guess I predominantly think of it in I guess the David [inaudible 01:05:55] sense of conscious experience as this at least hypothesized phenomenological thing that’s not intrinsically a part of the… It’s not like a physical process, so it’s not a description of how something processes information. It’s an experience that’s layered on top of the mechanical stuff that happens in the brain. Whereas if you’re illusionist, you think that there is no such thing as this, and this is like a woo-woo thing. But I guess for that notion of consciousness, it doesn’t seem in a sense very directly relevant because it doesn’t actually have the weird aspects of it. It’s by definition or a hypothesis, not something that actually physically influences anything that’s happened somewhat behaviorally. And you could have zombies where they behave just the same way, but they don’t have this additional layer of consciousness on the top.

Ben (01:06:44):
So that version of consciousness, I don’t see as being very relevant to understanding how machine learning training works or how issues on MACE optimization work. And maybe there’s mechanistic things that people sometimes refer to using consciousness, which I think sometimes has to do with the information system. Somehow having representations of themselves is maybe one traits that people pick out sometimes when they use the term consciousness. It seems like maybe some of that stuff is relevant or maybe beliefs about what your own goals are, this sort of thing. Maybe this has some interesting relationship to optimization and human self-consciousness and things like that. So I could see a link there, but I guess this is all to say it depends a bit on the notion of consciousness that one has in mind.

Jeremie (01:07:38) :
아뇨, 완벽합니다.그리고 이러한 것들이 경제학에서 의식 이론, 정신 이론에 이르기까지 다양한 분야와 얼마나 많이 겹치는 지 흥미 롭습니다.통찰력을 공유 해주셔서 감사합니다, Ben, 정말 감사합니다.흥미로운 작업을하고 있다고 생각하기 때문에 사람들이 작업을 확인할 수 있도록 공유하고 싶은 Twitter 또는 개인 웹 사이트가 있습니까?

Ben (01:07:57):
네.그래서 개인 웹 사이트가 거의 없지만 제가 참고하는 논문이 몇 개 있습니다.benmgarfinkel.com입니다.트위터 계정이 있지만 트윗을 한 적이 없습니다.내 사용자 이름이 뭔지 잊어 버렸습니다.하지만 그걸 찾아서 팔로우하고 싶다면 언젠가 그로부터 트윗을 올릴 수 있습니다.

Jeremie (01:08:15) :
그것은 설득력있는 피치입니다.그러니 여러분, Ben이 트윗 할 가능성을 살펴보세요.

Ben (01:08:22) :
지금 당장 1 층에 오시면 저의 트윗을 가장 먼저 본 사람이 될 수 있습니다.

Jeremie (01:08:27) :
그들은 씨앗에서 그것을 얻고 있습니다.지금은 시드 단계를 투자 할 때입니다.대박.고마워요, 벤.나는 Twitter를 포함하여 두 가지 모두에 링크 할 것입니다.

Ben (01:08:36) :
추가 된 트위터 팔로워를 기대합니다.

Jeremie (01:08:40) :
There you go. Yeah. Everybody, go and follow Ben, check out his website. And I’ll be posting some links as well in the blog post that will accompany this podcast just to… Some of the specific papers and pieces of work that Ben’s put together that we’ve referenced in this conversation because I think there’s a lot more to dig into there. So Ben, thanks a lot. Really appreciate it.

Ben (01:08:56) :
정말 고마워.정말 재미있는 대화였습니다.

Superhuman AI and the future of democracy and government

Podcast

Superhuman AI and the Future of Democracy and Government

Ben Garfinkel explores what we can — and can’t — predict about the future of humanity

Editor’s note: This episode is part of our podcast series on emerging problems in data science and machine learning, hosted by Jeremie Harris. Apart from hosting the podcast, Jeremie helps run a data science mentorship startup called SharpestMinds. You can listen to the podcast below:

As we continue to develop more and more sophisticated AI systems, an increasing number of economists, technologists and futurists have been trying to predict what the likely end point of all this progress might be. Will human beings be irrelevant? Will we offload all of our decisions — from what we want to do with our spare time, to how we govern societies — to machines? And what is the emergence of highly capable and highly general AI systems mean for the future of democracy and governance?

These questions are impossible to answer completely and directly, but it may be possible to get some hints by taking a long-term view at the history of human technological development. That’s a strategy that my guest, Ben Garfinkel, is applying in his research on the future of AI. Ben is a physicist and mathematician who now does research on forecasting risks from emerging technologies at Oxford’s Future of Humanity Institute.

Apart from his research on forecasting the future impact of technologies like AI, Ben has also spent time exploring some classic arguments for AI risk, many of which he disagrees with. Since we’ve had a number of guests on the podcast who do take these risks seriously, I thought it would be worth speaking to Ben about his views as well, and I’m very glad I did.

Here were some of my favourite take-homes from our conversation:

  • Unsurprisingly, predicting the future is hard. But one of the things that makes it especially hard when it comes to artificial intelligence and its likely impact on the economy, is that AI seems likely to challenge many of the assumptions that are baked into our standard economic models. For example, the very idea that markets consist of people who’ve made money and are looking to spend it on products may not generalize to a world where most buying and selling decisions are being made by machines. Likewise, we currently assume that there’s a pretty clear distinction between labour (the work that people put in to build stuff and deliver services) and capital (the tools, equipment and stuff that they build, or use to build other stuff). It’s not clear which of out economic intuitions will generalize to a world where AI systems count as capital, but are also doing most of our labour.
  • One active debate among economists, historians and futurists is whether the growth and development of the global human economy has been smooth and gradual, or step-wise and sharp. For example, some point to the Industrial Revolution, the Neolithic Revolution and other similar events as moments where economic development increased discretely and abruptly, whereas others see these as merely the moment that a level of ambient, continuous development finally became noticeable. Interestingly, people’s views on the relative smoothness or sharpness of human economic history plays an important role in the way they imagine the transition to an AI economy. If you generally think that economic growth has always been continuous and gradual, you’re less likely to think that AI will lead to a discontinuous, transformative leap in our day-to-day lives over a short period of time.
  • Ben is skeptical of certain “classic” arguments for AI risk. While not dismissing them completely, he argues out that many of them are unnecessarily abstract. He also makes the case that the emergence of increasingly systems like OpenAI’s GPT-3 have given us the opportunity to see how concrete and somewhat general AI systems behave in practice, and the results, he argues, suggest that concerns around AI risk from recursively self-improving systems may not be on particularly solid ground. It’s *really* hard to unpack these arguments in bullet point form here, so if you’re interested in this aspect I really do recommend listening to the episode!

You can follow Ben on Twitter here (though he hasn’t tweeted yet :P) or follow me on Twitter here.

Links referenced during the podcast:

  • Ben’s page on the Future of Humanity Institute’s website.
Image for post

Chapters:

  • 0:00 Intro
  • 1:21 Ben’s background
  • 3:14 The risk of AI
  • 9:57 The value of money
  • 13:38 AI as a participatory phenomenon
  • 16:01 AI and GDP
  • 27:11 Evolution of life
  • 30:36 The AI risk argument
  • 45:23 Building these systems
  • 51:29 Feedback of human self-improvement
  • 53:54 A shift in ideas
  • 1:07:38 Wrap-up

Please find below the transcript:

Jeremie (00:00:00):
Hey, everyone, Jeremie here. Welcome back to the Towards Data Science Podcast. I’m really excited about today’s episode because we’re going to be taking on a lot of long-termist, reformed looking, and semi futuristic topics related to AI. And the way AI technology is going to shape the future of governance. Are human beings going to just become economically irrelevant? How many of our day-to-day decisions are going to be offloaded to machines? And maybe most importantly, what does the emergence of highly capable and highly general AI systems mean for the future of democracy and governance itself? Those questions are impossible to answer with any kind of certainty, but it might be possible to get some hints by taking a long view at the history of human technological development.

Jeremie (00:00:41):
And that’s exactly the strategy that my guest Ben Garfinkel is applying in his research on the future of AI. Now, Ben is a multidisciplinary researcher who’s working on forecasting risks from advanced technologies, including AI at Oxford’s Future of Humanity Institute. Ben’s also spent a lot of time exploring some classical arguments for AI risk, many of which you’ll have encountered on the podcast. We’ve had a lot of guests on to discuss and explore those in detail and many of which he disagrees with. And we’ll be exploring his disagreements, why he has them, and where he thinks the arguments for AI risk are a little bit shaky. I really enjoyed the conversation. I hope you do too. Ben, thanks so much for joining me for the podcast.

Ben (00:01:19):
Yeah. Thanks so much for having me.

Jeremie (00:01:21):
I’m really happy to have you here. Your focus is on a whole bunch of long-termist issues, a lot of them around AI. Before we dive into the meat and potatoes of that though, I’d love to have a better understanding of what brought you to this space. So what was your background coming in and how did you discover long-termism in AI?

Ben (00:01:38):
Yeah, so it’s actually I guess, fairly roundabout. So in college I studied physics and philosophy and was quite interested in actually the philosophy of physics and was even considering going to grad school for that, which fortunately I did not do. And yeah, I guess through philosophy, I started to learn more about ethics and encountered certain ideas around population ethics. The idea that there’s different questions around how we should value future generations in the decisions we make and what our obligations are to future generations. Or how strong the obligation is to do something that has at least some use to other people. And then through that, I became increasingly interested in long-termism, and also trying to figure out something that seemed useful. And I came to think that maybe philosophy and physics was not that.

Ben (00:02:28):
And I got actually very lucky not just around this time, as I was trying to look more into long-termist or futuristic topics, I happened to meet a professor, Allan Dafoe, who was at Yale at the time. He was just himself pivoting to work on AI governance issues. And I think he put up a call for research assistants when I was still a senior there. And I was interested in the topic, I’d read a little bit about AI risk. I started to read for example, the book Superintelligence and I hadn’t really engaged in that area, but seemed like there may be some important issues there. And an opportunity jumped up and I started working with Allan. And now several years later, I’m actually still working with Allan, and I’ve just become fairly convinced that working on risks from emerging technology is at least a pretty good thing to do from a long-termist perspective.

Jeremie (00:03:14):
And this is actually a beautiful segue into, I think one of the main topics I really wanted to talk about. And that is this idea that you spent a lot of time thinking about existential risk from AI and the arguments for it. Many of which I know that you’re not actually fully sold on. Maybe we can start there, what’s the nature of the existential risk that people generally in particular, Allan and you are worried about when it comes to AI? And then we can maybe get into the counter-arguments to those arguments as well, but just for starters, what is that risk?

Ben (00:03:44):
Yeah, so I don’t think that there’s really a single risk that’s, at least really predominant in the community of people thinking about the long-term impacts of AI. So I’d say there’s a few main, very broad, and somewhat nebulous categories. So one class of risks very quickly is I’d say are risks from instability. So a lot of people, especially in the international security domain are worried about for example, lethal autonomous weapons systems, maybe increasing the risk of conflict between states. Maybe accidental, flash conflicts or potentially certain applications of AI, let’s say moving second strike capabilities and increasing the risk of nuclear war. Or they’re worried about great power competition. And the main vector of concern they have is maybe something about AI will destabilize politics either domestically or internationally, and then maybe there’ll be war which will have lasting damage or just some other negative, long conflict.

Ben (00:04:43):
There’s another class of concerns that is less focused on there being, let’s say some specific conflict or collapse or war. And is more focused on the idea that maybe there’s some level of possible contingency in how AI reshapes society. So you might think that certain decisions people make about how the government and AI will have lasting effects that carry forward and affect future generations. And in fact, for example, things like how prevalent democracy is or what the distribution of power is, or just various other things that people care about that maybe for example, bad values being in some sense entrenched.

Jeremie (00:05:23):
Because on that side, I imagine that’s a very, obviously it’s complicated area. But what are some of the ways in which people imagine AI transforming the extent to which let’s say democracy is a attractable mode of governance in the future?

Ben (00:05:36):
So just on democracy there’s obviously some speculative edge to this, but one argument for being worried about democracy is that democracy is not really normal. If you look across broad, sweeping view in history, back to the first civilizations, it’s not that uncommon for there to be, let’s say very weekly democratic elements. So it’s not completely autocracy, there’s some sort of body, say, Roman Senate or something, but in the case of Roman which is a well-known one. But it’s very far from what we have right now, which is like almost universal suffrage in a large number of countries with very responsive governments and consistent transfer for more. That’s extremely rare from a historical perspective. And even if things were not fully autocracy or somewhat coming before, this is a very different thing the past couple 100 years. And there’s different theories about why this modern form of democracy has become more common. And there’s a lot of debate about this because it’s hard to run RCTs. But a lot of people do point to at least certain economic changes that happen around the industrial revolution as relevant.

Ben (00:06:43):
So one class of change that people sometimes bring up is Androform, was a really serious concern before the industrial revolution. Some of the concern was that if you give a lot of common people power of the government, or leverage the [inaudible 00:06:56] that redistribute land, which is the primary form of wealth from wealthy actors more broadly should be very disruptive. And that’s as countries industrialized and land became less relevant as a form of wealth, maybe these land reform concerns became less of a blocker. You no longer had this land aristocracy, had this very blunt policy fear.

Ben (00:07:18):
And other concerns as well, is that the value of labor went up as well, just as productive increased. And this gave people in some nebulous sense, more bargaining power because you have the typical worker just what they did and more value. And they could create a larger threat by threatening to basically just remove their labor. Or organizations also thought to maybe have been relevant, like maybe people being packed in the cities would be easier to organize and actually have successful revolutions. And there’s lot of different factors that people basically point to as being economic changes that maybe helped democracy along its way or helps at least partly explain why it’s more prevalent today.

Ben (00:07:52):
So one concern you could have quite broadly is if the prevalence of democracy is in some way contingent on certain material or economic factors. Then that have only really held for the past couple 100 years. Maybe this isn’t normal, maybe if you just change a lot of economic and technological variables, it’s not going to hold. And there’s some more specific arguments here. So one pretty specific argument is just if the value of human labor goes very low, even goes to zero in most cases, because you can just substitute capital for labor. Because AI systems can do anything that people can do, maybe when we reduce the power of workers, if you can automate law enforcement or putting down the uprisings because military technologies can be automated as well.

Ben (00:08:33):
Maybe that makes authoritarian governments more stable. It means that they don’t even make concessions out of fear of uprisings. Maybe as well if the value of labor goes to zero, then at that point might become very heavily based on just who owns capital or who owns machines basically. And maybe it creates a system, a situation that’s very analogous to the little concerns about land reform. Where wealth wasn’t really based on these more nebulous things would divide people’s labor, didn’t really play a role, which is largely, there’s a thing that you own that you basically collect rents on. If you returned to that system, then maybe that’s also not good for the stability of democracy as well.

Ben (00:09:09):
So there’s an outside view perspective, which is just, this is a rare thing. Maybe we shouldn’t expect it to last, we change a lot. And then there’s some more inside view arguments that maybe will make authoritarian governments more stable, and make people were more worried about giving power to [inaudible 00:09:24].

Jeremie (00:09:24):
It’s really interesting how entangled all these issues are and how difficult it is to articulate a coherent vision of what the future might look like when all these transformational changes happen. One of the things that keeps coming to mind for me when we start talking about what’s going to happen with democracy, what’s going to happen with the economies. And then the power of labor to negotiate and so on, is the underlying assumption that we have any kind of market structure whatsoever, to the extent that you have all labor being done by machines.

Jeremie (00:09:57):
One of the, I guess almost silly questions that I would have is what is the value of money in that context? What is the value of price discovery? How does price discovery happen in that context? And what even does redistribution mean if… It’s not that we’re necessarily in a post scarcity situation, you would expect gradients of scarcity. But anyway, I’m not even sure what thought I’m trying to articulate here, but it looks like you have something to throw in there.

Ben (00:10:23):
So I think this is a really serious issue. I think we should not expect ourselves to actually be able to imagine a future with very advanced AI in any level of detail and actually be right. So an analogy I’ve sometimes used is I think there are certain aspects of a world where AI systems can at least do all the things that people can do. We can reason about to some extent, abstractly. We do have these economic models, we have labor and you have capital, and you can ask about what happens if you can substitute capital for labor. And even project is very abstract point of view. And there’s maybe some reason to hope that these theories are sufficiently abstract, that even if we don’t know the details. There’s still some reason to think that there’s sufficient general abstract that we can still use them to reason about the future. But there’s definitely a concern, like anything that becomes specific on how the governments work. We’re probably going to be imagining just the functionality of government’s quite wrong.

Ben (00:11:19):
So one analogy I’ve sometimes used is let’s imagine that you’re in say 1500 and someone describes the internet to you in very abstract terms of it’s like communication will be much faster. Retrieving information and learning things would be much quicker. And it gives you some of the abstract properties of it. There are some stuff you can probably reason about.

Ben (00:11:40):
So you might think, for example, “Oh, you can probably have less autonomy because people can communicate with them more quickly as opposed to them being overseas and out of contact. Or businesses can probably be larger because these coordination costs will probably go down.” And some stuff you can probably say about that would actually be true, or you could say, “Oh, maybe people work remotely,” and you probably don’t even know a lot about the details. But if you try to get really specific about what’s going on with that you’re probably going to be imagining it just completely, completely wrong. Because you have no familiarity whatsoever of what a computer actually is like, or how people interact with them.

Ben (00:12:15):
You’re not going to get details at the level of like, there’ll be this thing called Reddit and GameStop stock. There’s all these issues, which there’s no chance you’re ever going to foresee in any level of detail. And there’s lots of issues you might imagine that just won’t really apply because you’re using abstractions that somehow don’t fit very well. So this is a bit of a long-winded way of saying, I do think we have some theories and methods of reasoning that are sufficiently abstract and I expect them to hold at least a little bit. But I think there’s lots of stuff that we just can’t foresee. Lots of issues that we just can’t really talk about. And lots of stuff we say today they’ll probably end up being silly from the perspective of the future.

Jeremie (00:12:51):
Yeah, I would imagine so, “This time it’s going to be different,” is a dangerous thing to say at any given time. But when it comes to the next stage of the AI revolution, if you want to call it that. I know that’s the language you’ve tended to use as well and it seems apt in this case. One of the things that I do wonder about is a kind of almost like abstraction leakage where the abstractions that we rely on to define things like markets. This is one of the very fundamental elements of our reasoning when we’re talking about predicting the future. Markets implicitly revolve around people, because ultimately prices are just what individual human beings are willing to pay for a thing. To the extent that we broaden our definition of what a market participant could be.

Jeremie (00:13:38):
And here we get into questions of like, how do we consider an AI agent? At what point is it a participatory member of society? And at what point does price discovery really revolve around the needs and wants of non-human systems and things like that? I guess that’s where I start to wonder, this is a non-constructive perspective by default. So it’s not helpful for me to say like, “Markets are a bad abstraction,” but is that an issue that you think is serious or?

Ben (00:14:06):
Yeah, so yes, I do certainly think that there’s an issue and I think you point out a good, specific problem of, we have this very firm distinction between… People are very different than machines and software at the moment. It’s a very [crosstalk 00:14:19] like economic actors versus stuff about the economic [inaudible 00:14:23]. And there’s some degree of blurring of a corporation, for certain purposes has [inaudible 00:14:29] which are in some ways similar to a person. But the distinction is fairly, fairly strong. Even just between capital and labor, there aren’t any ambiguities around this at the moment.

Ben (00:14:41):
But if you think that very broadly capable, gentle, AI systems will exist in the future. We think that maybe people have interesting relationships with the AI systems where they create assessments, which are meant to pursue their values. I think a lot of distinctions that we draw might actually become a lot more ambiguous than they are today. And the way in which they become ambiguous in the future might make it so that any reason we do that relies on really crisp distinctions, might just fail in ways which are difficult to foresee at the moment.

Jeremie (00:15:12):
Yeah. It’s an interesting risk to predict because it really is unpredictable and fundamentally challenging. It seems like one of the issues there too, and you explore this in some of your work actually on the history of technology is which metric you’re even going to look at to tell the story of the evolution of this technology. Can you speak a little bit to that, your historical outlook and which metrics you find interesting and why they may or may not be relevant in the future?

Ben (00:15:36):
Yeah. So I think one metric that I think people very frequently reach to is global world product or GDP. And GDP is interesting as a metric because the thing it’s meant to measure is basically to some extent productive capacity, like how much stuff can you produce or stuff that people value can you produce. And-

Jeremie (00:16:01):
I have a stupid question. So what is GDP? What is the actual definition of GDP?

Ben (00:16:08):
So at least nominal GDP, you add up the total price of all of what are called final products that are sold within an economy. So a final product is basically something that is something like an end result. If you sell someone screws, and then they sell the screw to someone who uses the screw to make like a ceiling fan or something. The screw isn’t meant to be counted because you’re double counting. If someone buys a ceiling fan and they buy the screw when they buy the ceiling fan, they’re also buying the screw as well. So it’s meant to be basically adding up the total essentially sell price of all the stuff that’s bought or sold within an economy excluding the intermediate products.

Ben (00:16:48):
But then people also often want to talk about real GDP, which is different than nominal GDP. So nominal GDP is just, you add up basically all the prices. And one issue of nominal GDP is if you have inflation, then you can have nominal GDP increase for reasons that have nothing to do whatsoever with the actual underlying stock. So government decides to print more money, suddenly the price of everything goes up by a factor of 1,000, but you still have the same stuff. It doesn’t really feel like GDP growth has been extremely rapid in a nominal sense, but it’s not really telling you that actually you’re producing more stuff.

Jeremie (00:17:25):
Yeah. Venezuela is doing great.

Ben (00:17:27):
Yeah, exactly. So real GDP, it’s meant to be adjusting for this. And at least very roughly speaking the way it works is you try to define everything relative to the prices that existed a certain point in time in the past. So let’s say you have an economy that exists, the only product sold is butter and the price of butter goes up by a factor of 1,000 for some reason because of inflation. But you only double the amount of butter that you sell in the economy. Real GDP will just say, “Oh, because the amount of butter you sold increased by a factor of two. The size of your economy has only increased by a factor of two.” And the size of the economy is defined as take the price of butter in the past, multiply it by how many units exist today and that’s real GDP. And it gets pretty complicated because people keep introducing new products over time. So how do you compare the real GDP of the economy in 2020 versus the economy in the 1700s, given that most of the stuff that people buy in 2020 didn’t exist in 1700? How do you actually do that comparison? And there’s various wonky methods people use, they don’t really understand properly.

Ben (00:18:36):
But in asking that question, you’ve also gotten to one of the main issues with GDP. It’s meant to be tracking the productive capacity of society, like how much stuff we make basically. And if you use real GDP, over short periods of time, it seems fairly unproblematic because you’re not typically introducing that many new products. But over a long period of time, it becomes increasingly nebulous how these comparisons actually work. So very blunt comparisons still are pretty much fine. So you can still say like GDP per capita in 10,000 BC versus today. Even if I don’t know exactly how to define GDP per capita for like 100 other societies, I’m still quite confident it was lower.

Ben (00:19:21):
So it’s in some sense like a blunt instrument, I think its usefulness really depends on how precise you want to make your discussions or predictions. So let’s say someone makes a very bold prediction that the rate of GDP per capita growth will increase by a factor of 10 due to automation. If someone makes a bold prediction like that, it is a little bit ambiguous what real GDP means in some crazy futuristic economy. But even if you look a little bit fuzzy on it, the difference between GDP, the rate of growth, didn’t change, the rate of growth increased by a factor of 10 is still blunt enough. It’s a useful way of expressing a claim.

Ben (00:19:57):
So that’s a long-winded way of saying, I think GDP or GDP per capita is often pretty good as a proxy of just how quickly is productive capacity increasing. It’s useful for things like the industrial revolution, really clearly shows up in GDP per capita. Or when a country seems really stagnant, like undeveloped country isn’t developing, GDP per capita is typically pretty flat. And then when China, for example, started to take off in a really obvious qualitative sense GDP per capita tracked that pretty well. So it’s useful for that, but it also has various issues. And then there are also issues beyond that of like, often people want to use it as a proxy for how good people’s lives are, like GDP per capita.

Ben (00:20:38):
But there’s various things that don’t typically get factored into it, like the quality of medical care, isn’t very directly factored into it, air pollution isn’t factored into it. If everyone was just very depressed or anesthesia, the value of anesthesia being developed just really does not show up. There’s a classic paper by William Nordhaus that shows that quality improvements in lights, the fact that light bulbs are just way better than candles, more than 100 years ago doesn’t really show up. So it’s a long-winded way of saying same fiscal lots of issues, at least as a crude measure, pretty good. But doesn’t necessarily correlate that actually as well as you might help with wellbeing and other things of interest.

Jeremie (00:21:15):
It is interesting that when you tagged on that last piece, it doesn’t correlate well with wellbeing. I can’t think of a better encapsulation of a kind of alignment problem. Basically the problem of coming up with a metric that says, here’s what we want. Humans are really bad, or it’s not that we’re bad. It may just be a genuinely difficult problem to specify metrics that even make sense. And you see what the stock market, we decide to fixate on this one metric. And for a while, the stock market was a great measure of in general, how’s the economy doing, how’s the average person doing? But then there’s a decoupling and we end up with very divergent stock markets versus the lives of the average person. Anyway, sorry. It didn’t mean to butt in but you were mentioning the-

Ben (00:22:00):
Yeah. So I should just say as a little caveat, I think at the moment, GDP actually is pretty good as a metric. Where if you often define the things you care about, like life expectancy or life satisfaction. It does actually currently, there’s often like a pretty strong correlation. And I think you’re just like, didn’t know anything, you’re behind [inaudible 00:22:17] or something, you need to pick a country to live in. And the only thing you get is the GDP per capita. This is often going to be useful information for you. I guess my thought is more in line with the alignment concerns, I wouldn’t be surprised if it becomes more decoupled in the future.

Ben (00:22:30):
Especially if let’s say, imagine we eventually just totally replaced labor with capital and machines and people no longer are really working for wages. And economic growth is mostly machines building other machines and workers aren’t really involved. I would not be shocked if the economy increases by a factor of 10, but a person’s life does not increase by a factor of 10.

Jeremie (00:22:47):
Yeah. That’s interesting as well and raises the question of what, and this is back to price discovery, which is a big aspect of GDP. There are so many areas where things get complicated. But what’s also interesting is looking at some of the work that you put together on this historical exploration of technology. A lot of these metrics really are correlated. To some degree, it just doesn’t matter what you’re measuring, something dramatic has happened over the last 2000 years or the last 20,000 years. However, you want to measure it, either cultural revolution, neolithic revolution, industrial revolution. And it’s almost as if the human super-organism, all the human beings on planet earth are an optimization algorithm that’s just lashed onto some kind of optimum or local optimum or whatever. And we’re now climbing that gradient really steeply.

Jeremie (00:23:44):
Do you see AI as like a continuum limit of that? Is that just like the natural next step? Or should we think of it as a quantum leap, like a step function, things are just qualitatively different?

Ben (00:23:56):
Yeah. I think that’s a really good question. And I do think that this is a debate that exists in terms of how exactly to interpret the history of economic growth or increased social capacity. Or whatever kind of nebulous term you want to use to describe people’s ability to make stuff or change stuff or get stuff done in the world. And there’s actually a debate that exists for example, between different interpretations of the industrial revolution. So one interpretation of the industry revolution which occurred between roughly 1750 to 1850, in the UK and some surrounding countries is that up until the industrial revolution, growth was very stagnant. And then there was some change, some interesting pivot that happened that maybe took place over, maybe also another century on the other end of the industrial revolution. Where for some reason the pace of technological progress went up.

Ben (00:24:55):
And people switched away from an agriculturally based economy to industrial economy. And people started using non-organic sources of energy. So it’s no longer wood and animal fertilizer. It’s now fossil fuels and energy transmitted by electricity and stuff like this. And R&D is now playing a role in economic growth, which previously it didn’t really. And there’s some interesting phase transition or something that happened over a couple 100 years. We just transitioned from one economy to almost like a qualitatively different economy that could just grow and change faster.

Ben (00:25:29):
There’s another interpretation now that basically says that there’s actually this long run trend across at least the history of human civilization of the rate of growth getting faster and faster. And this interpretation says that as the overall scale of the economy increases, for that reason, the growth rate itself, just growth keeps going up and up. And this interesting feedback loop where the scale of the economy kept getting bigger and growth rate kept getting larger and larger and really visibly exploded in the industrial revolution. Just because this is where the pace finally became fast enough for people to notice this, but there was actually like a pretty consistent trend. It wasn’t really a phase transition.

Ben (00:26:12):
And there’s some recent work by for example, David Roodman, who’s an economist who does work for the Open Philanthropy Project. There’s a recent report he wrote I think, modeling the human trajectory, which argues or explores this continuous perspective. And there’s a debate in economic history as well. So there’s an economist, Michael Kramer has argued for this smooth acceleration perspective and lots of economic historians who have argued. Actually, there’s some weird thing where you switch from one economy to another.

Ben (00:26:42):
I’ll just say that there’s competing interpretations. So one just says every once in a while, it’s a bit weird, it’s a bit idiosyncratic. Something happens, some change that’s a bit discontinuous. And we switched to a new economy that can grow faster. And another interpretation says, no, actually this is a pretty consistent forest. Just things keep getting faster and faster, and it’s not phase transitions and it’s not discontinuity, it’s just there’s a smooth, really long run trend of just the world keeps accelerating more and more

Jeremie (00:27:11):
It’s interesting how that entangles almost like two different sub-problems. One of them is do humans learn almost continuously? In other words, is it the case that cave people were gradually generation on generation actually picking up more and more skills as they went, that it only become obvious when you look over like 10,000 years. Or is it the case that no, they’re basically stagnant, everything is truly flat and then you get some takeoff. It almost feels like this could be viewed as part of an even deeper question where if you keep zooming out and keeps zooming out. It no longer becomes a story of humanity iterating towards some future economy with AI is taking over. But rather moving from completely a biotic matter and the big bang, purely no value creation whatsoever to…

Jeremie (00:28:01):
I guess that has to be a step function, that first moment where life evolves. This is where I’m curious about, that perspective would seem to argue for more the quantum leap angle or the step function approach, unless I’m mistaken.

Ben (00:28:15):
Yeah. So I think that’s right. Definitely at least intuitively there’s certain transitions in history where it really seems like just something different happening. So the first self-replicating thing that can qualify as a life form, it seems like that has to be like a fairly discrete boundary in some sense. Or those things like, I really don’t know evolutionary history, but I think first you carry out something like mitochondria became part of the cell. This is a fairly discrete event, I believe where one of the organisms were smaller than the other, [inaudible 00:28:48] in it and the whole eukaryotic branch of life evolved from that. And various interesting things like people falling from that, where that also seems like something that intuitively is a discontinuous change that I don’t exactly know.

Ben (00:29:06):
So it does seem like intuitively there are certain things. And then another one as well is even in the industrial revolution where people were starting to do agriculture in a big way. I think the general thinking is that this was actually fairly rapid in a historical sense or things that could qualify as humans have existed for 10s of 1,000s of years. And then maybe over the course of a few 1,000 years people in like Western Asia and later other continents, transitioned to sedentary agricultural civilizations.

Ben (00:29:35):
And I think the thought is you had like a massive ice age for 100,000 years roughly, and then the ice age ended. And the climate changed and it became in some ways more favorable for people actually transitioning to sedentary agriculture, and then it just happened very, fairly quickly. So yeah, I do think that you’re right that there are some historical cases where it really does feel like at least without me personally knowing a lot about them, it feels like a discontinuous change. And I do also think that will probably be the case to some extent for AI. I don’t think it’s going to be a, you wake up tomorrow thing. But I do think that if we eventually reach full automation or if the growth rate again increases due to AI. People probably won’t look at it just as a stable continuation of economic trends that have existed since 1950. That right now we have this very steady rate of economic growth and we have this pretty steady filling rate of automation. And if the growth rate ever goes nuts, I think that people will feel like there was some inflection point or pivot point or some tipping point involved there.

Jeremie (00:30:36):
That’s actually as good a transition point as any of that could imagine to the second area you’ve been looking at that I really want to discuss, which is your views on AI safety… Not AI safety necessarily, let’s say AI risk and this idea of a smooth transition to an AI powered world, or let’s say a very abrupt transition to a kind of dystopic or existentially deadly scenario. So do you have some views on this? Maybe I’m just going to kick things off with that. So can you lay your thoughts are on where you think the AI risk argument is strong and maybe where it fails?

Ben (00:31:14):
Yeah. So I think I might just initially say a little bit about the continuity question or at least the relevance to the continuity question. So as you alluded to, this is also the debate people have about AI is how abrupt will the… Let’s assume we eventually get to a world where AI systems can basically make human labor obsolete and do all sorts of other crazy things. How abrupt transition will that be? Will it be the sort of thing, like an analogy to the industry revolution, where it’s a period of many decades and it’s this gradual thing that spreads across the world in a gradual way?

Ben (00:31:48):
I think even things like, steam power, people transitioning from not using fossil fuels to using them, that was an extremely long transition. Will it be more like those cases or will it be something that feels a lot more abrupt? Will there, for example be a point like a two-year period, where we went from stuff being basically normal to now everything is AI or even less than two years. And this is the debate that sometimes happens in the long-termist or futuristic [inaudible 00:32:15]. And it seems relevant in some ways where one of, and some ways should be something that increases risk or eventually reduces it.

Ben (00:32:24):
So in terms of increasing risk, one thing that a sudden, or really rapid change implies is it can come a little bit out of nowhere. So it’s very continuous, you see a lot of stuff that’s happening coming well ahead of time. Whereas if it’s really sudden, if it’s a process that would take two years, and that means that in principle two years from now, we could be living in a very different world if it just happens to happens. And there’s less time to get prepared and less time to get used to different intermediate levels of difference and do trial and error learning and get a sense of what the risks are. What the risks aren’t. If we talk this out and realize opportunity to see how to find and get used to the problems and come up with intermediate solutions and learn from your mistakes. And I think the largest risk with this is probably relevant to risks related to misaligned AI which is, I guess, the last major category of risk. And these are also a little bit diverse and I believe you’ve had some previous people on the podcast talk about them.

Ben (00:33:21):
But a lot of the concerns is basically boiled down to lots of AI systems we develop in the future will probably to some extent behave as though they’re pursuing certain objectives. Or trying to maximize certain things about the world. In the sense that like [inaudible 00:33:35] and the system makes predictions about offense rates in a criminal justice perspective is in a sense, trying to increase predictive accuracy or that sort of thing. And the concern is that the goal is that AI systems have will in some sense diverge and [inaudible 00:33:58] people tend to have, and that this will lead to disastrous outcome. We have AI systems which are quite clever and quite good at achieving whatever goals they have just doing things that differ from what people want.

Ben (00:34:12):
So speed is really relevant to this because if you think that this is going to be this pervasive issue of someone creates an AI system and deploys it. And then there’s some sort of divergence between it’s goals and goals that people have, and this causes harm. It seems like if there’s a really continuous transition to AI systems playing larger and larger roles in the world, that there’s probably quite a lot of time to know this less catastrophic versions of this concern or learn what works or doesn’t work. Not everyone is fully convinced that just gradualness and trial and error is enough to completely resolve the issue. But it seems like surely it’s helpful to actually be able to see more minor versions of the concern and come up with solutions that work in minor cases. Always this stuff is very sudden then, and let’s say we wake up tomorrow and we have AI systems that in principle can just completely replace human labor, could run governments, could do whatever.

Ben (00:34:59):
If we, for whatever reason, decide to use them. And they had goals which were different than ours in some important way, then this is probably a lot more concerning and we might not see issues coming. Yeah. So I guess to your question, what are the reasons why this might not be a major concern or just what’s the set of arguments for it being a concern one way or the other?

Jeremie (00:35:21):
Well, actually I think there’s an even more specific concern that you’ve taken a lot of time to unpack. And it’s this concern around the argument that Nick Bostrom makes in his book, Superintelligence. Just to briefly summarize, to tee it up here, the idea is, and I’m going to butcher this and please feel free to highlight the various ways in which I butcher this. But the idea is something like, if we assume that AI teams, let’s say OpenAI and DeepMind and whatever else are gradually iterating and iterating and iterating. One day, one of them has an insight or purchases, a whole bunch of compute, or gets access to a whole bunch of data. That’s just the one thing that’s needed to bump a system from like pathetic, little GPT-3 to now all of a sudden human level or above.

Jeremie (00:36:06):
That system because it’s human level or above, it may know how to improve itself because humans know how to improve the AI systems. So maybe it figures out how to improve itself and you get some recursive loop because loops very tight, the AI can improve itself. And eventually it’s so smart that it can overpower, let’s say its captors with its intelligence and take over the world and lead to a completely disastrous outcome. Is that at least roughly right?

Ben (00:36:30):
Yeah. So I think that’s basically roughly right. Yeah. So one way to think about is I think there’s a spectrum of these alignment concerns. And some of them are in the more, maybe the future nebulous perspective where we create lots of AI systems gradually over time and their goals are different from ours and there’s a gradual loss of control of the future and that sort of thing. And there’s so much more extreme where it’s like there’s a single AI system and arrives quite suddenly. And it’s in some sense broadly superintelligence and it doesn’t really have major precedents. And that system individually quite rapidly causes havoc in world, like there’s some major jump to this one single very disruptive system which is definitely the version of concern. It’s emphasized in things like Nick’s book Superintelligence and then the narrative, I guess you just described.

Ben (00:37:18):
So a lot of my own thinking about AI risk has been a lot about this more extreme end of the spectrum so that concern appears in places like superintelligence for a couple of reasons. One I think it’s the version of I first encountered and that made me especially interested in it which I guess is a partial just personal reason for interest.

Ben (00:37:39):
And the other others I think that this is just, even if lots of AI alignment researchers, don’t primarily have this version of concern in mind. I think it’s still quite influential and pretty well-known. And often if someone knows anything about AI risk, this is the version of concern that comes to mind. So that sounds I think it’s maybe a special worth paying attention. So some of my thinking has been just about the question of like it plausible that you actually have this very sudden jump from you don’t really have major AI systems of interest what is a bit like it is today. And then suddenly some researcher somewhere has this major breakthrough and you end up with this single system. And I guess I’m fairly skeptical of this for maybe boring reasons.

Ben (00:38:15):
So one initial boring reason is just that’s not the way technology tends to work. If you start from the perspective of like, let’s look at how technology normally transforms the world. It’s normally the case that it’s this a protractive process that takes decades where someone develops something and then it’s a long process of improvement. And then it’s the point in some sectors before other sectors and it’s useful in some areas before other areas. And then people need to develop complimentary inventions to take advantage of it. And people need to figure out how to actually use it appropriately. And there’s lots of tweaking and issues you don’t foresee that make it a slow process. So like electricity it’s, I think the electric motor sometime in the early 19th century, I believe it’s invented. But then electric motors don’t predominant in American factories until something the 1930s.

Ben (00:39:02):
Or the first digital computers middle of the 20th century but from like ’90s, that they really show up in productivity statistics in a big way. And even then, not really and still loads of countries, not like that pervasively used in different important contexts. And even not in a sense like that larger portion of the economy. So it becomes a start from there and it’s like you don’t look too specifically at the details of AI and say like, “What would I expect if it’s like any other technology we’ve ever had?” Probably it’s economic transformation, it’s going to be a gradual thing, lots of annoying stuff that happens.

Jeremie (00:39:35):
To just to probe at that a little bit. So one of the things that I would imagine has made the progress and distribution of technology accelerate in the last 100 years for whatever period we choose is precisely communication. We talked about that quite a few times, the role the internet played and so on. And communication in particular, in terms of tightening feedback loops between the teams of people who design product, the teams of people who deploy it, the teams of people who sell it and so on. To the extent that integration that coherence is driven by communication. Would that undermine this argument in a sense of saying, “Well, if you have a single AI system that’s internally coherent and that’s able to essentially tighten that feedback loop, not infinitely but to machine time.” Do you find that that position interesting, I guess, is what I’m trying to ask?

Ben (00:40:28):
So I guess I find it interesting, but not persuasive. So I’d say there’s the idea of like if we jump to imagine that there’s a sudden jump to some extremely broadly capable AI system that just can serve you all of the economically relevant production tasks. It can do mining for chips, it can run ballot polling centers, it can do AI research, it can build more compute resources, it can manage without military strategic. If we imagine that there’s a single system that just abruptly comes into existence, that’s just itself doing all of this without interacting with outside factors or pulling on external resources. It does seem like there’s some intuition of like, stuff can happen faster because the communication efficiency costs have just gone down a lot. But there’s the questions like, should we imagine that this is the way development will work? That there’ll be like one single system that just abruptly gets all these capabilities. And I guess that’s something that I’m probably skeptical of in the case of AI and also again for somewhat boring reasons.

Ben (00:41:32):
So we do know that you can have progress in different areas at the same time. So something like the… I imagine probably a lot of your listeners are familiar with this, language models or this recent system GPT-3 developed by OpenAI. This is an example of a system that got pretty good at lots of different tasks through a single training process roughly the same time. So I was trained on a large corpus of basically webpages. And I was trained to basically try and predict what’s the least surprising, next word I could encounter on the basis of the words I’ve already encountered in a document I’m exposed to.

Ben (00:42:08):
So you can use it to do stuff like write a headline for a news article, and then I’ll try and think what’s the least surprising text for an article given this headline. And one thing people find is you can actually use it to do a lot of different stuff. So you can use it to do translation, for example, we can write a sentence in Spanish and say the English translation, the sentence is blank is calling. And the system will go out at least surprising thing to find next would basically be like the English translation of it and use it to write poetry. What’s the least surprising ending to this Emily Dickinson poem and that sort of thing.

Ben (00:42:42):
But even in these cases where lots of different capabilities in some sense, come online at once. You do still definitely see AI variation in terms of how good it is at different stuff. So it’s pretty bad for the most part at writing, like usable computer code. You can do a little bit of this, but basically can’t do it in a useful way at the moment. It’s pretty good at writing like Jabberwocky style poems, one of these came before the other. And there’s reason to think that can even be the case that’s going to be like an expanding thing where some capabilities come before others. There’s also some capabilities that you can’t really produce just purely through this GPT-3 style, train it on this large corpus of online things.

Ben (00:43:23):
If you want to translate the Department of Defense internal memos, it needs to be trained on something else. If you want it to write like healthcare legislation, probably [inaudible 00:43:30] is not going to do it for you. If you want it to set supermarket prices, at price inventory thing, or you personalize emails where it knows actually when to schedule meetings for you. You’re going to need a different training method. Or if you want to perform better than humans, you’re going to need a different training method as well, because you need to give it like… What it basically does is to try to say what would be the least surprising thing for person to have written on the internet. But if you want to do better than a person you’re going to need to use something else, some sort of feedback mechanism.

Ben (00:43:55):
So basically the reason I think different capabilities will come online at different times. There’ll also probably be lots of annoying stuff that comes up in different specific domains that doesn’t really show up to researchers. But tends to come up when you want to apply stuff like a law of going from [inaudible 00:44:07] to people actually using electric motors in factories, it’s like, you need to redesign your factory floor. Because it’s no longer based around the central steam engine. You need to redesign the things that’s using the hardware, you need redesign the processes that your workers use is actually leverage this thing. You have regulations that need to happen, et cetera, et cetera. And probably these things would need to be dealt with to some extent, at least initially by different teams. And some of them will be harder than others or require different resources than others. And I would basically be surprised if, this has been like a long way of saying I expect stuff to come online, that’d actually be really useful in the world at pretty different points for different tasks.

Jeremie (00:44:40):
Interesting. Yeah, that makes perfect sense. And what’s interesting to me is it’s exactly the kind of error that a theorist would make, imagining a system that… And not that it is an error, this scenario could easily come to pass. But these are interesting objections that seem to map onto the psychology of somebody who’s focused on theoretical optimization rather than optimization of systems and economies in practice. Interesting. So none of this though, seems to suggest that it would not be possible at some point in the future for an AI system with the ability to self-improve iteratively and [crosstalk 00:45:21] to be developed.

Jeremie (00:45:23):
So there’s two parts to this question. First off, A, do you think that that’s the case, or do you think that it will be possible to build such a system? And B, do you think such a system will be built or is likely to be built? Is there a series of incentives that stacks up to get us to a recursively self-improving AI that just goes [foom 00:45:47], eventually and does whatever? Is that a plausible story?

Ben (00:45:51):
Yeah. So I have a couple of bits here. So first bit is it’s unclear to me that recursive self-improvement will really be the thing. So clearly there are feedback loops and will be feedback loops in the future. So we see lots of technologies in a more limited way. So the existence software is useful for developing software. Software developers use software and computers are useful for designing computers. If people like Nvidia or any sort of hardware manufacturer didn’t have computers to use, they would probably find their jobs quite a bit harder. So there’s loads of cases where technologies where the aided design development or a technology aided development for another technology. It’s typically not recursive, or it’s not typically exactly the same artifact that’s improving itself.

Ben (00:46:44):
And in the case of AI, I don’t necessarily see a good reason to expect it to be recursive. I definitely expect AI to be applied more and more in the context of AI development searching for the right architecture. Or learning, figuring out what’s the most optimal way to basically develop another system or make it work well. But I don’t necessarily see a strong reason to think that’s the individual system doing it to itself, as opposed to a system that’s developed to help train other systems. The same way like software doesn’t tend to improve itself. I don’t really see a great benefit to it being recursive. It could be the case if that’s done, but I don’t see why it would be recursive, why that’s inherently more attractive. In some ways it seems maybe less attractive. It seems like somehow messier or it seems nice if this is a bit of a modular thing.

Jeremie (00:47:33):
Yeah, I guess, to some degree, just to bolster this argument a little bit from an engineering standpoint, I would imagine that… So there’s this abstraction of different systems, this term that we use to say there’s system A, there’s system, B. System A’s either improving itself or system B’s improving it, and then maybe system A… All that stuff. I guess what I’d thinking of in this case is an abstraction that covers something like a closed system that crucially operates on machine time. So the key distinction to my mind that would define like a takeoff of this form would be the fact that this either self-optimization or system A improves system B happens on the order of like microseconds. Or what have you such that humans do not intercede in the process and are ultimately surprised by the results where the results would deviate significantly from our expectations.

Ben (00:48:33):
Yeah. So I think maybe one of the key distinctions is labor basically involved in the improvement process. So one general counter to this AI feedback loop being really important to really increasing the rate of change that much. I guess we do already do have these feedback loops where loads of tasks that researchers or engineers would have been doing at the beginning of the 20th century, they just don’t do anymore. They’ve just been completely automated. So just actually doing calculations by hand is like a huge time sink. It’s like research effort for engineering. So there’s been massive, massive automation, in terms of the time that people spent doing, a huge portion of it’s been automated either way. So in that sense, there’s been this really strong feedback loop where technological progress has helped technological progress.

Ben (00:49:25):
But at least since the middle of the 20th century, we haven’t seen an increase in the rate of productivity growth, like technological progress, at least in leading countries. It seems to have actually gone slower, if anything. And the rate now is comparable to the beginning of the 20th century in the U.S.. So clearly this feedback loop isn’t enough on its own and there’s an offsetting thing and probably to mean the same thing as like this idea is getting hard to find phenomenon. Where technology helps you make new stuff, but also each new thing you want to make is a bit harder to make from the previous thing. Because if it was easy, you would’ve already done it. So that’s one general counter argument.

Ben (00:50:01):
And then the counter, counter argument to that is like, well this whole time that we’ve been automating lots of the tasks involved in research and then creating machines to do them and then improving the machines. Human labor has always been a part of it. And if you have this story where human labor stuffed on by capital basically is complementary. I think we have labor bottlenecks story where we keep making cooler machines and we keep making more machines. But there’s diminishing returns on the coolness of your machines or the quantity of your machines for fixed amount of research effort. So research effort’s really the bottleneck. It creates this diminishing returns phenomenon where it really limits the marginal value of the additional cool tech stuff that’s involved, done by researchers or owned by researchers. And then the number of researchers grows at this pretty constant exponential rate that can’t really be changed that easily because it’s linked to the population and things like that.

Ben (00:50:57):
So then I was talking, if you actually remove just human labor completely from the picture, just people are just not involved in R&D anymore or manufacturing. Then maybe in that case you no longer have this diminishing returns effect, you no longer have this bottleneck that you get diminishing returns on capital for like a fixed amount of labor. Maybe it just feeds back directly to itself, diminishing returns go away in some important sense. And then the feedback loop really takes off once you just completely remove humans from the loop, would be the story you could tell to say why the feedback loop will be different in the future than the non-explicit feedback loop we’ve had for the past century.

Jeremie (00:51:29):
And I guess there is a feedback of human self-improvement. I think clock time is the distinguishing characteristic here, but I do strive to improve myself in my productivity and I do strive to nail that myself. I try to improve the way I improve myself. In principle, I think I do that to an infinite number of derivatives or as close to that as matter. So there is an exponential quality to it, but clearly I’m not Elon Musk yet. I haven’t achieved hard take-off so there’s a difference there somewhere.

Ben (00:52:05):
Yeah. So I guess the thing I’d say there is probably that, I think you’re definitely right, that that’s a real phenomenon. I think though that the kind of orders of magnitude involved, how much you would have to self-improve is just smaller than it is for technology. So let’s imagine a researcher unit is a person in your laptop. And that’s the thing that produces the research. The person can actually make themselves better at coding and they can make themselves better at learning how to do things quickly, they can learn how to learn. But maybe the actual difference in productivity, maybe you can help to increase by like a factor of 10 in terms of human capital relative to what the average researcher in 2020 is. Whereas your laptop, it seems to get maybe has more [inaudible 00:52:44] to climb up in terms of how much better it can get than it is right now.

Jeremie (00:52:49):
That does unfortunately seem to be the case, but I just need to keep working at it. I think that’s what it needs.

Ben (00:52:56):
Yeah. I wish you best of luck in your race against your laptop’s rate of improvement.

Jeremie (00:52:59):
Yeah. Thanks. I’ll let you know if I hit take off. So that’s really interesting that you have done so much thinking on this and I can see in myself some shifts in terms of the way that you’re thinking about this, certainly there are aspects of it that I hadn’t considered before. That do come from this economics perspective that come from the systems perspective. Is this a way of thinking that you think is especially uncommon among technical AI safety people? Or are you starting to see that become adopted where… I’m still trying to piece together what the landscape looks like and how views have been shifting on this topic over time. Because just by way of example, I remember 2009, it was [inaudible 00:53:45]. Basically everybody was talking about this idea of a brain in a box or some fast takeoff thing where a machine self improves and so on.

Jeremie (00:53:54):
Whereas now it really does seem like between OpenAI, Paul Christiano, and a lot of the work being done at Future of Humanity Institute, things are shifting. And I’d love to get your perspective on that shift, that timeline and where the community now stands with respect to all these theses.

Ben (00:54:11):
Yeah. So I do definitely think there’s been a shift in the way, let’s say the median person in these communities is thinking about it. It’s a little bit ambiguous to me how much of it is a shift in terms of people who used to think one way shifting to another way of thinking. Versus more people entering the community with a preexisting different way of thinking. I do think that there is some element of people thinking about things in a bit more of a concrete way. What you think a lot of the older analysis, it’s very abstract. It’s very much relying on… It’s not exactly like mathematical, it’s like people doing an abstract algebra or something. But it’s definitely maybe like a more mathematical mindset.

Ben (00:54:58):
And it’s shifted over time. And I think one reason for that, which is very justifiable, it’s just when people are talking about this in the mid 2000s. Machine learning, wasn’t really a huge thing. People thought it would be more maybe logic oriented systems would be what maybe AGI would look like. Anything that really looked at all AGI-ish to really use as a model to think about. And I think as machine learning from took off and people started to have these systems, something like GPT-3 where obviously this is not AGI and probably AGI will be very different than that. It’s like a little bit of a stepping stone in the path to AGI. It’s like a little bit maybe AGI-ish or something.

Ben (00:55:41):
I think having these concrete examples just leads you to start thinking in a slightly different way. Where start to realize that they’re actually a little bit hard to describe in the context of maybe these abstract frameworks that you had before. So GPT-3 does it have a goal or if you want to predict this behavior, how useful. I guess it’s goal is to produce whatever next word would be unsurprising, but it’s somewhat doesn’t exactly feel right to think that way. It’s not clear how useful it is for predicting this behavior. It doesn’t really seem like there’s a risk of it doing something crazy like killing people to prevent them from stopping it from outputting. Somehow it just feels like it doesn’t really fit very well. And also just seeing more concrete applications and thinking… So I think just saying like Paul Christiano said, for example, to some extent being optimistic about, “Oh, I think you could actually probably do that thing with machine learning, not that far in the future without major breakthroughs.” Lends people to also think in a more continuous sense where it’s not all or nothing. It’s like you can see the stepping stones of intermediate transformations.

Ben (00:56:41):
So I think it’s seeing intermediate applications, having a bit more concreteness. And feeling a little bit like more skeptical of the abstract constituting, just because it’s hard to fit them onto the thing you’re seeing, or maybe some forces that have had an effect. Typically, I do definitely think that there are plenty of people who think that the more mathematical and classical way of approaching things is still quite useful or that may be the predominant way they approach things.

Jeremie (00:57:09):
Yeah. I actually have heard arguments… Not necessarily arguments that a system like GPT-3 would become pathological in the way you’ve described. But at least stories that can be told that sound internally consistent that describe worlds in which a system like that could go really badly wrong. In that case, it’s something like, imagine GPT-10, whatever the year would have to be for that to happen. And you had the system that necessarily, it is doing this like glorified auto-complete task. But in order to perform that task, one thing that seems clear is that it’s developing a fairly sophisticated model of the world. There’s some debate over the extent to which this is memorization versus actual generalizable learning. But let’s give GPT-3 the benefit of the doubt and assume it is generalizable learning. To the extent that that’s the case, the system continues to develop a more and more sophisticated model of the world, a larger and larger context window.

Jeremie (00:58:06):
Eventually that model of the world includes the fact that GPT-3 itself exists and is part of the world. Eventually this realization, as it tries to optimize its gradients makes it realize, “Oh I could develop direct control over my gradients through some kind of wire-heading,” is usually how it’s framed in the [crosstalk 00:58:25] community and so on. I think the problems that you described apply to this way of thinking. But it’s interesting how GPT-3 really has led to this concrete thinking about some of those abstracts.

Ben (00:58:39):
Yeah. I think it’s also very useful to have these concrete systems because I also think they force differences in intuition. Or force differences in comeback and assumptions to the surface. So just as one example, there’s definitely the cases that some people have expressed concern about these GPT systems or if you have GPT-10 then maybe this would be very dangerous. And I actually wouldn’t have guessed this. Or I guess I wouldn’t have guessed that other people had this intuition just because I didn’t have it. Because my baseline intuition is just basically too rough approximation the way the system works. It’s a model of some parameters and then it’s exposed to like a corpus of text. And it just basically outputs an X word and then the next word is actually right or it’s not. Or basically there’s a gradient that pushes the outputs to be less and less surprising relative to whatever the actual words in a data set are.

Ben (00:59:35):
It’s just basically being optimized for outputting words, which would be unsurprising to find as an X word in a piece of text, which is online somewhere. And when I think of GPT-10, I think, “Wow, I guess it just outputs words, which would be very unsurprising to find on webpages online.” It’s just like the thing that it does. And suppose, let’s say it does stuff like outputs words which lead people to destroy the world or something. It seems like it would only do that if those would be words that would be the most unsurprising to find online. If the words that lead it to destroy the world are not, would it be surprising to find online because people don’t normally write that sort of thing online. Then it seems like something weird has happened with the gradient descent process.

Jeremie (01:00:15):
So I think that’s a really great way to frame it. I believe the counter-argument to that might sound something like, we might look at human beings 200,000 years ago as sex optimizers or something like that. And then we find that we’re not that as our evolution has unfolded. I think the case here is that well, first off there’s a deep question as to what it is that a neural network actually is optimizing. It’s not actually clear that it’s optimizing its loss function or it feels a kick every time its gradients get updated. It goes like, “Oh, you’re wrong. Update all your rates by this.”

Jeremie (01:00:58):
Does that kick hurt? And if it does then, is that the true thing that’s being optimized by these systems? And then if that’s the case, then there’s this whole area obviously inner alignment that we’re skirting around here, but it’s a deep rabbit hole, I guess.

Ben (01:01:15):
So I sort of agree that there’s a distinction between the loss function that’s used when training the system and what this system acts like it’s trying to do. And there’s one really simple way of saying that is if you start with like a chess playing reinforcement learning system. And you have a reward function, that loss function associated with it, and you just haven’t trained it yet. It’s just not going to act like it’s trying to win at chess because that’s like one of the bluntest examples of like, it just doesn’t add up.

Ben (01:01:40):
And then obviously, you have these transplanting cases where you train a system in let’s say a video game where it gets points every time it opens a green box that’s on the left and on the right there’s like a red box. And you put it in a new environment where there’s a red box in the left and a green box on the right. And the training data you’ve given it so far, isn’t actually sufficient to distinguish, sounds like what is actually the thing that’s being rewarded. Is it for opening the red boxes or is it for opening the box on the left? And you shouldn’t be surprised if the system, for example, opens the box on the left, even though actually the thing that isn’t a loss function is the red box or vice versa. It wouldn’t be surprising if it’s generalized in the wrong way.

Ben (01:02:21):
So I certainly agree that there can generalization errors. I struggle to see why you would end up with, like in the case of something like GPT-3, I just don’t understand mechanistically what would be happening, where it would be… So let’s say that the concern is because it’s the text generation system that puts out some text where if it’s read by someone, it’s an engineering blueprint for something that kills everyone, let’s say. Which I don’t know if there’s like a non-sci-fi version of this where it leads to existential risk, but let’s say it’s the thing it does. I sometimes feel like I’m almost being… To answer or something or I’m missing something. But I just don’t understand mechanistically why would this grading design process lead it to have a policy that does that. Why would it in any way be optimized in that direction?

Jeremie (01:03:06):
The answer I would give, I’m sure not having put sufficient thought into this, I should preface. But is in principle, if we imagine, let’s say unlimited amount of compute, unlimited scale of data, and so on. This model would, let’s say it starts to think, and it thinks more and more and more and develops like a larger and larger and more complete picture of the world. Again, depending on what it’s trying to optimize, assuming it’s trying to optimize for minimizing its gradients. Here this is very course, I assume I’m wrong somehow, but somehow it feels like right to imagine that a neural network feels bad every time it gets kicked around. I don’t know.

Ben (01:03:47):
I don’t think it actually makes any sense, as much as it feels bad. I think it’s just, it has certain parameters and then it outputs something and it compares to the training set. And then based on the discrepancy, it’s [inaudible 01:04:02] kicked in a different direction. But I don’t think that there’s actually any internal… I don’t think there’s actually a meaningful sense which it feels bad. It has parameters that get nudged around by like a stick. It’s this guy with a stick, pushing the parameters in different directions on the basis of the discrepancy or lack of discrepancy, and then they eventually end up somewhere.

Jeremie (01:04:23):
Yeah. So this in and of itself is like, I think one of the coolest aspects. I’m about to get distracted by the inner alignment excitement here. But it’s one of the coolest aspects to me of the alignment debate, because it really gets you to the point of wondering about subjective experience and consciousness. Because there’s no way to have the conversation without saying, like, “This is some kind of learning process.” And learning process tends to produce an artifact like in humans, it’s a brain that seems to have some subjective experience, basically all life. You can look at an amoeba, move it around under a microscope. It really seems like it experiences pain and joy in different moments in different ways.

Jeremie (01:05:02):
So anyways, seeing these systems that behave in ways that could be interpreted similarly inspires at least in me questions about what is the link between the actual Mesa-objective, the function that the optimizer is really trying to improve and subjective experience. I’m going into territory I don’t understand nearly well enough. But maybe I can leave the thought at, I think this is a really exciting and interesting aspect of the problem as well. Do you think that consciousness and subjective experience have a role to play, the study of that in the context of these machines? Or are you-

Ben (01:05:44):
I think not so much of that. There’s a difficulty here where there’s obviously the different notions of consciousness people use. So I guess I predominantly think of it in I guess the David [inaudible 01:05:55] sense of conscious experience as this at least hypothesized phenomenological thing that’s not intrinsically a part of the… It’s not like a physical process, so it’s not a description of how something processes information. It’s an experience that’s layered on top of the mechanical stuff that happens in the brain. Whereas if you’re illusionist, you think that there is no such thing as this, and this is like a woo-woo thing. But I guess for that notion of consciousness, it doesn’t seem in a sense very directly relevant because it doesn’t actually have the weird aspects of it. It’s by definition or a hypothesis, not something that actually physically influences anything that’s happened somewhat behaviorally. And you could have zombies where they behave just the same way, but they don’t have this additional layer of consciousness on the top.

Ben (01:06:44):
So that version of consciousness, I don’t see as being very relevant to understanding how machine learning training works or how issues on MACE optimization work. And maybe there’s mechanistic things that people sometimes refer to using consciousness, which I think sometimes has to do with the information system. Somehow having representations of themselves is maybe one traits that people pick out sometimes when they use the term consciousness. It seems like maybe some of that stuff is relevant or maybe beliefs about what your own goals are, this sort of thing. Maybe this has some interesting relationship to optimization and human self-consciousness and things like that. So I could see a link there, but I guess this is all to say it depends a bit on the notion of consciousness that one has in mind.

Jeremie (01:07:38):
No, makes perfect sense. And it’s interesting how much these things do overlap with so many different areas from economics to theories of consciousness, theories of mind. Thanks so much for sharing your insights, Ben, I really appreciate it. Do you have a Twitter or a personal website that you’d like to share so people can check out your work because I think you’re working on fascinating stuff.

Ben (01:07:57):
Yeah. So I do have a personal website with very little on it, but there’s like a few papers I reference. That’s benmgarfinkel.com. And I have a Twitter account, but I’ve never tweeted from. I forget what my username is, but if you would like to find that and follow me, I may one day tweet from it.

Jeremie (01:08:15):
That is a compelling pitch. So everyone, look into the possibility of Ben tweeting some time.

Ben (01:08:22):
You could be among the first people to ever see a tweet from me if you get on the ground floor right now.

Jeremie (01:08:27):
They’re getting it at seed. This is time to invest seed stage. Awesome. Thanks so much, Ben. I will link to both those things including the Twitter.

Ben (01:08:36):
I look forward to the added Twitter followers.

Jeremie (01:08:40):
There you go. Yeah. Everybody, go and follow Ben, check out his website. And I’ll be posting some links as well in the blog post that will accompany this podcast just to… Some of the specific papers and pieces of work that Ben’s put together that we’ve referenced in this conversation because I think there’s a lot more to dig into there. So Ben, thanks a lot. Really appreciate it.

Ben (01:08:56):
Thanks so much. This was a super fun conversation.

2021년 2월 19일 성남시 분당구 부동산 경매 데이터 분석

2021년 2월 19일 용인시 부동산 경매 데이터 분석