Please find below the transcript:
Jeremie (00:00) :
안녕 모두들.여기 제레미.팟 캐스트에 다시 오신 것을 환영합니다.오늘의 에피소드가 정말 기대됩니다. Facebook에서 책임감있는 AI가 수행되는 방식에 대해 이야기 할 것이기 때문입니다.이제 Facebook은 매일 말 그대로 수십억 명의 삶에 영향을 미치는 추천 시스템과 예측 모델을 일상적으로 배포합니다.그리고 이러한 종류의 도달 범위에는 무엇보다도 윤리적이고 공정하며 특성이 뛰어난 AI 도구를 개발해야하는 큰 책임이 따릅니다.
Jeremie (00:22) :
이것은 정말 쉬운 일이 아닙니다.인간은 공정성과 윤리가 의미하는 바가 무엇인지에 대해 수천 년을 보냈으며 이러한 문제에 대한 합의에 가까운 것은 없습니다.이것이 바로 Responsible AI 커뮤니티가 탐색하고 권장 할 정책을 결정할 때 가능한 한 많은 이질적인 관점을 포함해야하는 이유입니다.이것이 바로 Facebook의 책임있는 AI 팀이 적용한 관행입니다.
Jeremie (00:44) :
이제이 팟 캐스트 에피소드에서는 Facebook에서 Responsible AI의 저명한 기술 책임자 인 Joaquin Quinoñero-Candela와 합류했습니다.Joaquin은 수년간 AI 윤리 및 AI 공정성 운동의 최전선에있었습니다.그리고 그는 기본적으로 처음부터 Facebook의 전체 책임감있는 AI 팀 구성을 감독했습니다.따라서 그는 대규모 AI 윤리 결정을 내리고 그 효과가 나타나는 것을 직접 확인한 실무 경험이있는 비교적 소수의 사람 중 한 명입니다.
Jeremie (01:09) :
이제 우리의 대화는 공정성 자체의 정의에 대한 철학적 질문에서 특정 AI 윤리 프레임 워크를 구현할 때 발생하는 실제적인 문제에 이르기까지 많은 근거를 다룰 것입니다.이것은 대단한 것입니다.이 에피소드를 여러분과 공유 할 수있게되어 너무 기쁩니다. 여러분도 즐겨 주시기 바랍니다.호아킨, 팟 캐스트에 함께 해주셔서 정말 감사합니다.
호아킨 (01:26) :
고마워, Jeremie.저를 가져 주셔서 감사합니다.정말 기쁘고 여러분의 팟 캐스트가 정말 마음에 듭니다.
Jeremie (01:32) :
음, 정말 감사합니다.당신이 여기에 오게되어서 기쁩니다.이 대화가 정말 기대됩니다.토론 할 수있는 내용이 너무 많지만 상황에 맞는 부분이있어 문제를 해결하는 데 유용 할 것 같습니다.그리고 그것은 당신의 배경, 당신이 어떻게이 공간에 들어 갔는지, 누군가가 ML과 학문적 여정 밖에서 어떻게 들어 와서 결국 당신이있는 위치에 도달했는지에 대한 짧은 대화입니다. 그리고 그것은 책임있는 AI 이니셔티브를 이끌고 있습니다.페이스 북.거기 어떻게 갔어요?
호아킨 (01:56) :
내 여정에 대해 얘기하면 오래 갈 수 있기 때문에 원할 때마다 나를 방해 할 수있는 거래를해야합니다.저는 매우 높은 수준에서 2004 년에 머신 러닝 박사 학위를 마쳤다고 생각합니다. 당시에는 제가 속한 커뮤니티에서 AI라는 단어를 사용하는 사람이 거의 없었습니다. NeurIPS 커뮤니티는 대부분 ML 커뮤니티였습니다.나는 학업에 약간의 시간을 보냈습니다.저는 독일 막스 플랑크 연구소에서 박사후 연구원이었습니다.첫 번째 전환은 2007 년 1 월 영국 케임브리지에서 연구 과학자로 Microsoft Research에 합류했습니다.
호아킨 (02:43) :
그래서 제 경력에서 매우 근본적인 일이있었습니다. 기계 학습을 사용하는 제품 팀을 만났다는 것입니다.특히 Microsoft의 검색 엔진이 출시되기 전에 Bing 조직이 될 팀과 대화를 시작했습니다.그리고 우리는 사람들을위한 광고의 관련성을 높이기 위해 ML을 적용하기 시작했습니다.특히, 우리는 누군가가 광고를 보게된다면 광고를 클릭 할 것인지 예측하는 모델을 구축하고있었습니다.그 작업은 ML이 과학 논문에서 한 것이 아니라 실제로 프로덕션에 넣을 수 있다는 생각에 매료되었습니다.
호아킨 (03:24) :
그래서 2009 년에 Bing 조직은 저에게 “이봐 요, Microsoft Research의 안락함, 그처럼 편안한 연구 환경에서 벗어나는 것이 어떻습니까? 그리고 엔지니어링 관리자가되어 Bing 내에서 팀을 이끌지 않겠습니까?”그래서 저는 그렇게했습니다.엔지니어링 리더가되는 것에 대해 전혀 몰랐기 때문에 제 인생에서 가장 스트레스가 많고 극적인 전환 중 하나 였을 것입니다.로드맵, 인원수 계획, 예산 책정, 통화 중, 주요 생산 구성 요소를 담당하는 일에 익숙하지 않았습니다.그래서 꽤 스트레스가 많았습니다.하지만 동시에 저에게 반대편의 시각을 주었기 때문에 훌륭했습니다.
호아킨 (04:04) :
그리고 제 경력 전체에서 되풀이되어 지금도 계속되는 한 가지 주제는 기술 이전에 대한 아이디어입니다.화이트 보드, 수학, 아이디어, 연구, 실험에서 유지 관리 및 실행이 필요한 프로덕션 시스템으로 이어지는 깔때기입니다.
호아킨 (04:22) :
그래서이 전환은 저에게 연구의 반대편에있는 다른 세계에 대한 1 인칭 시각을 제공했습니다. 때로는 연구원으로서 여러분이 들어가서 이렇게 말할 수있는 다른 세계입니다.“이봐 요.제가 방금 만든 멋진 모델입니다.”그리고 사람들은“이럴 시간이 없습니다.바빠요.”그래서 갑자기 저는 반대편에있었습니다.훌륭한 경험이었고 결국 경매 최적화 팀을 구축하는 데 도움이되었습니다.그래서 메커니즘 설계와 경제, 경매에 대해 조금 알게되었습니다.
호아킨 (04:57) :
그리고 2012 년 5 월에 Facebook에 왔습니다. 광고 조직에 합류했습니다.저는 광고를위한 기계 학습 팀을 구축하기 시작했습니다.그리고 제 커리어에서 두 번째로 중요한 순간이 일어났다 고 생각합니다. 즉, 모든 사람에게 말하고 싶은 말은 마법사가 확장하지 않는 것이 저를 정말 세게 때렸다는 것입니다.
호아킨 (05:16) :
그래서 우리가 가진 도전은 페이스 북에 뛰어난 기계 학습 연구원이 몇 명 있었지만 해결해야하는 문제의 수는 계속 증가했습니다.그리고 우리는 빠르게 움직이는 우리 자신의 능력에 거의 문을 두었습니다.사람들은 자신의 상자에 모델을 만들고 프로덕션으로 배송하기위한 자체 프로세스를 갖게되었고 모든 것이 느리다고 느꼈습니다.그리고 집착은 어떻게 우리가 연구를 생산으로 가속화 할 수 있을까요?공장을 어떻게 지을 수 있습니까?
호아킨 (05:51) :
그리고 그것은 흥미로운 시간이었습니다. 갑작스럽고 어려운 결정은 가능한 한 순위와 추천을 위해 가장 복잡한 신경망을 구축하기 위해 서두르는 것이 아니라 우리가 가지고있는 기술을 고수합시다. 합리적입니다..우리는 부스트 된 의사 결정 트리를 사용하고 있었고 온라인 선형 모델과 같은 것들을 사용했습니다. 비교적 간단한 것입니다.대규모에서는 그렇게 간단하지 않을 수 있습니다.하지만 아이디어는 매주 배송 할 수 있습니까?몇 주가 걸리지 않도록
Jeremie (06:26) :
와.
호아킨 (06:26) :
네, 그게 비전이었습니다.비전은 매주 배였습니다.진언과 거의 비슷해졌습니다.다들“매주 배를 배워요”라고 했어요그래서 우리는 연구에서 생산까지의 경로를 관리하기위한 전체 생태계를 구축했습니다.그리고 그것은 많은 일을했습니다.회사 전체에 걸쳐 구축 한 도구 모음입니다.광고에만 집중했기 때문에 흥미 롭습니다.아이디어는 모든 종류의 모델을 구축하는 광고의 모든 사람이 모든 종류의 표면에서 어떤 종류의 이벤트를 예측하여 실제로 코드를 공유하고 아이디어를 공유하며 실험 결과를 공유하는 것이 매우 쉬울 것이라는 것이 었습니다.
호아킨 (07:00) :
거의 실제로 누구와 이야기해야하는지 아는 것입니다.사실 가장 중요한 것은 커뮤니티를 구축하는 것입니다.비전은 이것이 실제로 모델을 표현하는 프레임 워크와 무관 한 것이 었습니다. TensorFlow와 Keras가 인기를 얻었을 때 당연히이를 지원했습니다.PyTorch를 지원합니다.하지만 정말로 C ++로 처음부터 무언가를 작성하고 싶다면 게스트가 되십시오.꽤 불가지론 적입니다.워크 플로 관리에 관한 것입니다.
호아킨 (07:28) :
결국 팀은 우리가 구축하고있는 것을 채택하도록 요청하기 시작했습니다.그리고 시간이 지나면 회사 전체가 우리가 만든 것을 채택했습니다.우리는 컴퓨터 비전, NLP, 음성, 추천, 기계 번역, 기본적으로 모든 것을위한 전문 서비스를 위에 추가하기 시작했습니다.그로 인해 Applied ML이라는 팀이 탄생했습니다. 제가 몇 년 동안 구축을 도왔고이 팀은 기본적으로 회사 전체에 제공하고 ML을 민주화하여 모든 제품 팀의 손에 맡겼습니다.
호아킨 (08:06) :
아이디어는 마법사가 확장되지 않기 때문에 그렇게 많은 마법사가 필요하지 않으며, 마법사가 근본적인 혁신의 창시자가 될 것이지만 회사 전체에서 수천 명의 엔지니어는 아니더라도 수백 명의 엔지니어로 구성된 생태계를 가질 수 있다는 것입니다.이러한 것들을 매우 쉽게 활용하고 구축 할 수 있습니다.그래서 저는 본질적으로 3 년 전까지 그렇게했습니다.그리고 우리가 전환하기 전에이 부분에 대한 질문을하고 싶으 시다면 여기에서 숨을 쉬겠습니다. Responsible AI 로의 전환 인 세 번째 큰 순간이 될 것 같습니다.
Jeremie (08:41) :
특히 경력의 두 번째 단계에서 저에게 큰 도움이되는 사항 중 하나는 프로세스 구현에 정말 능숙 해지는 것과 같은 프로세스 구현에 대해 이야기하고 있다는 것입니다.그리고 사람들이 인공 지능 윤리, 인공 지능 공정성, 그런 종류의 이야기를 할 때마다 이것이 저를 오싹하게하거나 전체 공간에 대해 약간 긴장하게 만드는 것이 명백한 일관성 부족이라는 것 같습니다.
Jeremie (09:04) :
AI 공정성이 무엇인지, AI 윤리가 무엇인지 알기는 어렵습니다.모든 사람이 다른 정의를 가지고있는 것 같습니다.또한 이러한 정의를 얻은 후에도 복제 가능하고 확장 가능한 프로세스로 코드화 할 수있는 방법도 명확하지 않습니다.그래서 그 전문성은 중요 했겠죠?프로세스 개발 흐름이 AI 작업의 공정성에 매핑 될까요?
호아킨 (09:27) :
그렇습니다.이제 머리에 못을 박았습니다.회사 내부에서 AI를 민주화 할 때했던 많은 일들이 현재 우리가 Responsible AI를 개발하고 있다는 점에서 많은 도움이 되었기 때문에 흥미 롭습니다.하지만 지금 당장 Facebook에서 프로덕션에 배포 된 모든 모델이 무엇인지, 누가 모델을 만들 었는지, 어떤 모델로 들어 갔는지 확인할 수있는 도구가 있다는 생각은 이러한 수준의 방해와 일관성을 제공하는 것입니다., 정말 중요합니다.하지만 물론 Responsible AI에는 훨씬 더 많은 것이 있습니다.당신이 말했듯이, 개념의 정의에 대해 광범위한 의견 차이가 있습니다.그래서, 그 세계로의 저의 여정에 대해 말씀 드리겠습니다.
호아킨 (10:23) :
저는 공정성, 책임 성, 투명성 워크숍을 눈꼬리로 따라 가고있었습니다.나는 그것이 일어난 첫해가 아마도 2014 년이나 NeurIPS에서 그와 비슷한 일이라고 생각하며, 계속 반복되었습니다.그리고 2018 년이 싹 트는해라 고 생각합니다.사실 저는 그 워크숍에 참석했습니다.그것은 독자적인 종류의 회의가되었고 2018 년에는 뉴욕에서 열렸습니다.
호아킨 (10:53) :
하지만 2017 년 말 뉴욕 컨퍼런스에서 케이트 크로포드 나 솔론 바로 카스 등 많은 사람들의 기본적인 기조 연설이 몇 차례있었습니다.제 뇌 전체가 어떤 식 으로든 폭발하고 지금이 바로 지금이라고 생각했던 것처럼 제게는 분명해졌습니다.지금이 분명합니다.여기 가스에 음식을 넣어야합니다.우리는 모두 참여해야합니다. 우리는 초기 노력에서 Responsible AI에 초점을 맞춘 큰 헌신적 인 노력을 실제로 구축해야합니다.
호아킨 (11:27) :
그리고 수학을 좋아하는 사람, 공학을 좋아하는 사람, 프로세스와 플랫폼을 좋아하고 사람들에게 도구를 제공하는 사람으로서 저의 배경을 가지고 있습니다.개월 [누화 00:11:42].
Jeremie (11:43) :
그렇게 어려울 수는 없습니다.
호아킨 (11:44) :
예, 그렇게 어려울 수는 없습니다.얼마나 어려울 수 있습니까?여기를 살펴 보겠습니다.그래서 저는 일부 작업과 일부 정의를 살펴 보았습니다.그리고 물론 즉시 명확 해졌습니다.이것은 공정성과 그들의 정치에 대한 21 가지 정의에 대한 아름다운 강연을 제공하는 Arvind Narayanan의 작품입니다.그가 2018 년에 그것에 대해했던 연설이 있습니다. 당시에는 FAT Star 컨퍼런스라고 불 렸습니다.이제 FACT라고합니다.[들리지 않음 00:12:11] 커뮤니티는 [NIPS 00:12:14] 및 FAT와 같은 끔찍한 이름을 만드는 데 능숙했습니다.운 좋게도 이름을 변경했습니다.
제레미 (12:18) :
빨리 움직이고 물건을 부수십시오.
호아킨 (12:19) :
빨리 움직이고 물건을 부수십시오.그래서 저는 괜찮다고 생각했습니다.이 21 개의 정의 중 일부 공정성 정의는 그룹 간의 결과를 균등화하기 위해 노력하고, 일부 공정성 정의는 모든 사람을 동일하게 대하는 데 초점을 맞추고 있습니다. 저는 정말 얼마나 많은 것이 필요한가요?아마도 우리는 몇 가지를 구현할 수있을 것입니다.저는 드롭 다운 상자처럼 상상합니다. [누화 00:12:44] 수행자로 어떤 것을 선택해야합니까?저는 우리가 하위 그룹, 모델의 정확성, 보정 곡선,이 모든 것들에 의해 분류 된 데이터 구성의 아름다운 시각화를 가질 수 있다고 생각했습니다.좋아요, 우리는 이것을 얻었습니다. 우리는이 일을 몇 달 안에 끝낼 수 있습니다.
호아킨 (12:59) :
그런 다음 AI 공정성이 주로 AI 문제가 아니며 수학에는 답이 없다는 것이 엄청난 수의 벽돌처럼 저를 때렸습니다.그리고 사용해야하는 공정성의 정의는 상황에 따라 매우 달라집니다.도덕 철학과 정치 철학에서 온 사람들이 참여하는 다 분야 팀을 구성해야합니다.그것은 실제로 매우 중요합니다.그리고 아마도 가장 중요한 것은 공정성이 모델의 속성이 아니라는 것입니다.상태 상자가 아닙니다.실제로는 과정입니다.공정성은 과정입니다.사실 저는 카메라를 조금 기울여 보여 드릴 것입니다. 저는 의도적으로 우리 팀을 위해 제작 한이 티셔츠를 입고 있습니다. 공정성은 과정입니다.
Jeremie (13:45) :
아, 아주 좋아.
호아킨 (13:46) :
그래서 이건 저희가 팀을 위해 만든 티셔츠 세트입니다. 제가 항상 이것을 반복했기 때문입니다.그래서 어느 날 우리 팀의 비서가 모두를위한이 티셔츠 더미를 내놓고 말 했어요. “좋아요, 여러분은 항상 공정성이 하나의 과정이라고 계속해서 말하고 있습니다 [들리지 않음 00:14:03].”어쨌든 우리는 자부심을 가지고 착용합니다.당신은 결코 끝나지 않았습니다.엔지니어가 생각하기 조금 어려울 수있는 점은 이것이 아니라는 것입니다. 아, 여기에이 마이크를 만들어서 끝났습니다.나는 그것을 테스트했고 작동합니다.그렇지 않습니다.
호아킨 (14:20) :
시간을 거슬러 올라가면 인류는 아리스토텔레스 이후로 공정성에 대해 논의 해 왔습니다.우리는 여전히 논의 중이며 동의하지 않습니다.그리고 그것은 우리가 다른 이념을 가지고 있기 때문에 정치가됩니다.따라서 위험 평가, 결정 사항 표시, 결정 방법 등을 문서화하는 여러 분야의 프로세스를 구축해야합니다.그리고 그것은 공정성을위한 것입니다.분명히 Responsible AI에는 다룰 다른 많은 차원도 있습니다.
Jeremie (14:54) :
부분적으로는 공정성이라는 개념을 프로세스로서 좋아합니다. 왜냐하면 Goodhart의 법칙이라는 잘 알려진 원칙이 있기 때문입니다.측정 항목을 정의하자마자이 숫자 하나를 최적화 할 것이라고 말하면 갑자기 사람들이 그 주변의 방법을 찾고 해킹을 찾고 치트를 찾습니다.나는 오늘 주식 시장에서 그것을보고있을 것입니다.
Jeremie (15:12) :
일반적으로 주식 시장이 오르면 국민의 삶의 질이 올라간 것이 일반적으로 1950 년으로 거슬러 올라갑니다.하지만 이제는 사람들이 게임과 정치를 시작하고이를 중심으로 최적화하면서 분리되는 현상을 목격하고 있습니다.그래서, 이것은 마치 … 제 말은, 전략의이 부분이 단일 손실 함수가없고 개선 할 단일 최적화 함수가 없다는 사실을 인식하고 대신 프로세스에 집중 해 보겠습니다.
호아킨 (15:35) :
물론.이에 대해하고 싶은 말이 몇 가지 있습니다.우선, 모든 단일 메트릭은 불완전합니다.구체적으로 공정성에 대해 작업하지 않더라도 메트릭 목표를 설정하는 순간, 특히 많은 기술 회사가 매우 성공한 이유 중 하나는 빠르게 반복 할 수 있다고 생각하기 때문이라고 생각합니다., 우리는 메트릭 기반이 될 수 있으며 이러한 메트릭을 이동할 수 있습니다.
호아킨 (16:11) :
그러나 동시에 그것은 잠재적으로 우리의 아킬레스 건이 될 수 있으며 실제로 당신을 곤경에 빠뜨릴 수 있습니다.따라서 매우 강력한 비판적 사고를 개발하는 것이 필수적입니다.그리고 우리가 카운터 측정 항목이라고 부르는 것을 개발하는 것이 중요합니다. 예를 들어이 측정 항목을 개선 할 때 더 나빠져서는 안되는 위치에서 작동하는 다른 측정 항목과 같습니다.하지만 그것조차-
Jeremie (16:36) :
[누화 00:16:36] 실제로 그 중 하나의 예?그것은 매혹적인 아이디어처럼 들립니다.
호아킨 (16:39) :
간단한 아이디어는 음성 인식 시스템의 정확도를 향상 시키려고 노력하고 있으며 원하는대로 단어 오류율 또는 이와 유사한 방식으로 측정한다고 가정 해보십시오.따라서 공정성에 관심이있는 경우 만들 수있는 카운터 측정 항목 중 하나는 실제로 분석 할 수 있다는 것입니다. 예를 들어 미국에서는 악센트가 국가마다 다르기 때문에 일부 지리적 그룹별로 측정 할 수 있습니다.그리고 카운터 메트릭은 평균이 항상 당신에게 도달하기 때문에 어떤 그룹의 성능을 저하시킬 수 없다는 것입니다.
Jeremie (17:21) :
네.
호아킨 (17:21) :
당신은 다수 집단을 위해 일을 두 배 더 좋게 만들 수 있고, 다른 집단을 위해 그들을 더 나쁘게 만들 수 있으며, 심지어 깨닫지 못할 수도 있습니다.따라서 이는 매우 공정성 중심의 측정 항목입니다.하지만 경험의 여러 측면을 최적화하려는 다른 많은 시나리오를 상상할 수 있으며 더 악화시키고 싶지 않은 특정 사항이 있습니다.
Jeremie (17:51) :
이에 대해 처음으로 언급 한 의견 중 하나는 공정성이거나 공정성에 대한 정의는 데이터 과학자에게 어려운 일이 아니라고 생각합니다.
호아킨 (17:58) :
권리.
Jeremie (17:58) :
그것은 그들이 걱정할 필요가없는 것입니다.데이터 과학자는 공공 정책에서 철학 학위와 학위를받을 시간이 없습니다.그래서 궁극적으로 누군가의 직업이 될 것입니다.그리고 그것이 정책 입안자이든 인문학 배경이 더 많은 사람이든, 마음에 떠오르는 한 가지 질문은 이러한 지표에 대한 대화의 성격이 기술적으로 매우 빠르게 진행된다는 것입니다.내리는 결정의 본질을 전달할 수 있다는 것은 그 자체로 어려운 일입니다.이러한 문제가 많이 발생하고 있으며 그 문제를 해결하기 위해 사용하는 전략이 있습니까?
호아킨 (18:32) :
도전입니다.우리가 성공한 것 중 하나는 회사 전체의 공정성에 대해 이야기 할 수있는 일관된 어휘를 정의하고이를 매우 구체적이고 예를 통해 설명하기 위해 복잡성이 증가하는 일관된 질문 세트를 정의하는 것입니다.공정성에 대한 가장 기본적인 정의 중 하나는 질문하는 것입니다. 내 제품이 모든 그룹에서 잘 작동합니까?그룹을 정의하는 문제는 물론 상황에 따라 매우 다릅니다.
호아킨 (19:18) :
왼쪽에는 Facebook Portal 카메라가 있고 사람을 추적 할 수있는 스마트 AI가 있습니다.내가 스페인에있는 부모님이나 독일의 부모님과 화상 회의를하고 있다면 기본적으로 우리의 주말이 우리 아이들과 어떻게 진행되는지, 아니면 그들과 화상 회의를 하는지를 상상할 수 있습니다.실제로 Skype 또는 FaceTime에 사용하는 휴대폰이 있거나 사용하는 소프트웨어를 사용하는 경우 프레임을 중앙에 유지하려고하는 것이 정말 짜증나 기 때문입니다.
호아킨 (19:56) :
포털에서는 마법과도 같습니다.하지만 사람을 추적하는 AI는 축소, 자르기, 중앙 등 모든 것을 축소 할 수있는 두 사람이 있는지 확인합니다. 피부 톤 전체에서 똑같이 잘 작동 할 것이라고 당연하게 생각할 수 없습니다.또는 성별 또는 연령.그런 맥락에서 최소한의 서비스 품질을 어떻게 정의 할 수 있습니까?그리고 최소한의 서비스 품질은 누군가가 잘 리거나 무언가가 잘리는 실패율이 특정 작은 비율의 시간이나 프레임 또는 세션 수보다 작아야한다는 것입니다.
호아킨 (20:34) :
이는 합리적인 개념입니다.이 아이디어는 최소 서비스 품질입니다.나는 내 제품이 모두에게 충분히 잘 작동하기를 바랍니다.물론 내 제품의 맥락에서 핵심 질문 중 하나는 무엇을 구축하려고하는지 고려할 때 고려해야 할 가장 민감한 그룹은 누구입니까?나중에 원하신다면 토픽 항아리에 무언가를 넣겠습니다. 선거 간섭에 대해 이야기 할 수 있습니다.그리고 우리는 그러한 맥락에서 AI가 어떻게 도울 수 있는지에 대해 이야기 할 수 있습니다.그리고 우리는 인도 선거에 대해 이야기 할 수 있습니다.그런 다음 그 맥락에서 어떤 그룹이 관련이 있는지 추론 할 수 있습니다.
호아킨 (21:12) :
그러나 포털 예제로 돌아 가면 공정성에 대한 가장 기본적인 질문은 메트릭을 분리 할 수 있습니까?입니다.팀은 일반적으로 기준을 시작했습니다.따라서 데이터 과학, ML 팀은 “이 모델이 충분히 좋은가요?”라고 말할 것입니다.음, 질문은 그룹별로 분리 된 롤업 측정 항목을 사용하는 대신,이 경우 피부톤 일 수 있습니다. 연령 및 성별에 사용할 수있는 척도가 많고 각 버킷에 대해성능이 가장 나쁜 버킷에서 그게 유일한 인구 였다고 상상해보세요. 여전히 출시 하시겠습니까?
호아킨 (21:50) :
대답이 ‘아니요’인 경우에는 앉아서 알아 내야 할 것입니다. 좋아요. 내가 아무도 떠나지 않도록하려면 어떻게해야하나요?그런 다음 인도 선거로 이어지는 한 가지 질문과 공정성에 대한 정의가 본질적으로 더 비교됩니다.어떤면에서 최소한의 서비스 품질은 기준과 비교되지만 반드시 걱정할 필요는 없습니다. 오, 다른 그룹보다 그룹에 대해 여전히 조금 더 효과적 일 수 있습니다.모두에게 충분히 잘 작동한다면 괜찮습니다.그리고 저는 굿 하트의 법칙이라는 주제에 또 다른 주제를 넣을 것입니다.이 법칙은 여러분이 어떻게 최소한의 서비스 품질을 게임하거나 망칠 수 있는지에 대한 것입니다.
호아킨 (22:30) :
그러나 다음 단계는 대우의 평등 또는 평등입니다.당신은 말할 수 있습니다. 좋아요, 저는 실제로 성능의 차이에 관심이 있습니다.그리고 인도 선거의 예는 이와 같습니다.작년 4 월, 5 월경, 제가 정확하게 기억한다면 인류 역사상 가장 큰 선거를 치렀습니다.10 억 명의 등록 유권자에 가까웠 던 것 같습니다.그보다 조금 적지 만 방대합니다.그리고 잘못된 정보와 조작 시도에 대한 우려가 많은 시대에.
호아킨 (23:08) :
AI없이이 문제를 해결하는 방법은 표준, 커뮤니티 가이드 라인, 콘텐츠 정책을 제공하고 콘텐츠가이를 위반하지 않는지 확인하는 사람을 두는 것입니다.만약 그렇다면, 당신은 그것들을 내려 놓습니다.하지만 문제는 이번 선거의 규모와 우리가 보유한 규모에 따라이를 수행하기 위해 고용 할 수있는 사람이 많지 않습니다.그러니 여러분이해야 할 일은 작업의 우선 순위를 정하는 것입니다. 왜냐하면 제가 기타를 연주하거나 고양이 나 개가 등장하는 것에 대한 제 게시물은 검토하는 데 시간을 낭비해서는 안되기 때문입니다.
호아킨 (23:47) :
하지만 정치인이 논의하는 문제가 있거나 정치인이 아니더라도 조직에서 시민 콘텐츠, 사회적 또는 정치적 문제를 논의하는 콘텐츠에 대해 이야기하고 있다면 우선 순위를 지정해야합니다.그래서 우리는 그렇게하는 AI를 만들었습니다.우리는 이것을 시민 분류기라고 부릅니다.따라서 콘텐츠를 살펴보고 본질적으로 시민적일 가능성이있는 콘텐츠를 식별 한 다음 사람이 검토 할 수 있도록 우선 순위를 지정합니다.
호아킨 (24:20) :
공정성 문제는 무엇입니까?음, 공정성 문제는 인도에서 20 개가 넘는 공식 언어가 있고 문화적 특성이 매우 다른 지역이 많이 있다는 것입니다.그래서 실제로 인구를 지역과 언어로 나누면 그것이 종교 나 카스트와 같은 것들과 실제로 어떻게 연관되는지 볼 수 있습니다.그리고 다른 지역의 사람들과 관련된 사회 문제는 다릅니다.하지만 이제는 인적 자원을 배치하여 콘텐츠를 검토하는 위치를 우선으로하는 AI가 있습니다.AI가 몇 가지 언어에서만 잘 작동하고 다른 언어에서는 작동하지 않으면 어떻게 되나요?
호아킨 (25:01) :
따라서 언어 비유를 취하면 언어에 대한 위험을 과대 평가하면 어떻게 될까요?즉, 우선 순위를 정하고… 해당 언어로 게시물을 검토하기 위해 더 많은 인력을 투입 할 것입니다.그리고 다른 언어에 대해 어떤 것이 본질적으로 시민적일 가능성을 과소 평가하거나 과소 평가한다면 우리는 그곳에 충분한 인적 자원을 할당하지 않습니다.
호아킨 (25:22) :
그리고 나서 우리는 최소한의 서비스 품질에 그치지 않기로 결정했습니다. 이것이 우리가 진정으로 동등한 대우를 원하는 경우라고 생각했습니다.그리고 여기에있는 것은 0과 1 사이의 숫자를 출력하는 이진 분류기입니다. 즉,이 콘텐츠가 시민적일 확률이 얼마나되는지, 우리가 말한 것은 잘됩니다. 우리는 이러한 예측이 모든 단일 항목에 대해 잘 보정되기를 원합니다.언어와 모든 단일 지역.
호아킨 (25:47) :
다시 말하지만, 공정성이라는 개념은 자원 할당의 공정성에 관한 것이기 때문에 더 높은 기준을 설정했습니다.그리고 그림을 완성하기 위해 우리가 내부적으로 사용하고있는 세 번째 공통적 인 정의와 질문 세트는 형평성에 관한 것이며 모든 사람과 모든 것을 동일하게 대해야하는 것이 아니라 시스템의 성능이모두에게 특정 기준을 넘어 섰습니까?그러면 질문은 예를 들어 제품 결과에 특별한주의를 기울여야 할 사람들이 있는가?그리고 이것은 우리가 고려해야 할 역사적 맥락이 있기 때문일 수 있습니다.
호아킨 (26:42) :
그리고 미국에서 인종 정의 인식의 여파로 2020 년에 본 한 가지 예는 예를 들어 Facebook에서 흑인 소유 기업의 비즈니스 성과에 초점을 맞추 었습니다.그래서 우리는 Facebook 플랫폼이 이미 존재했던 상황을 개선하는 데 도움이 될 기회가 있다고 느꼈기 때문에 흑인 소유 기업에 가시성을 제공하는 데 도움이되는 제품 노력을 구축했습니다.
호아킨 (27:17) :
공정성에 대해 생각할 때 자주 묻는 질문은 책임 중 하나입니다.좋아요, 사람들은 뭐라고 말할지 모르지만 사회는 편견이 있고 여기에 저는 중립적 인 기술을 만들었습니다. 저는이 게임에 피부가 없습니다.그리고 우리가 말하는 것은 그렇게 작동하지 않는다는 것입니다.여러분의 기술은 이러한 편견을 반영 할 수 있고,이를 영속화 할 수 있으며,이를 합법화하거나 디버그 또는 이해하기 매우 어렵게 만드는 블랙 박스 안에 캡슐화 할 수 있습니다.그리고 반대로 기술은 모두에게 더 나은 결과를 제공 할 수 있습니다.하지만 때때로 우리는 스스로에게 질문해야합니다. 우선 순위를 정할 그룹이 있습니까?그것은 많은 단어였습니다.
Jeremie (28:03) :
아니요. Facebook에서는 Twitter에서 공정성이 어떻게 관리되고 있는지에 대한 질문에 대답하기가 어렵다고 생각합니다 [들리지 않음 00:28:10].
호아킨 (28:09) :
권리.
제레미 (28:10) :
하지만 저는 여러분이 설명하시는 다양한 종류의 렌즈와 공정성에 대한 다양한 접근 방식이 정말 흥미 롭다고 생각합니다.프로세스 관점에서 제가 정말 궁금한 점 중 하나는 적용 할 공정성 기준에 대한 결정이 조직 내 어디에서 비롯된 것입니까?그리고 그 결정을 내리는 과정이 현재 충분히 공식화되고 구조화되어 있다고 생각하십니까?분명히 반복이있을 것이지만 그 프로세스가 어떻게 구성되어야하는지에 대해 좋은 감각이 있다고 생각하십니까?
호아킨 (28:42) :
네.그래서 우리는 프로세스를 구축하고 있습니다.그러나 우리에게 매우 분명한 것은 그것이 허브 앤 스포크 모델이라는 것입니다.따라서 우리는 여러 분야의 중앙 집중식 책임있는 AI 팀을 보유하고 있습니다.앞서 언급했듯이 AI 과학자와 엔지니어뿐만 아니라 도덕적, 정치적 철학자와 사회 과학자도 있습니다.그리고 그 팀이하는 일은 이러한 질문들 중 일부를 묻는 윤리적 틀을 제공하는 것부터 전체 레이어 케이크입니다. 그래서 그것이 질적 부분이 될 것입니다. 만약 당신이 원한다면 양적 부분으로 더 가십시오.우리는 어떻게…
호아킨 (29:26) :
이제 평등과 최소 서비스 품질에 대해 이야기했습니다.평등을 위해 이진 분류 자에 대해 이야기했습니다.그것이 실제로 수학에서 무엇을 의미합니까?나는 무엇을 봅니까?그룹 간의 오 탐률을 보나요?답변, 아닙니다. 문제가 있기 때문에 반드시 그런 것은 아닙니다.하지만 당신은 무엇을합니까?
호아킨 (29:48) :
그리고 그 아래에는 플랫폼과 도구 통합이 더 많은 또 다른 계층이 있습니다.다시 말하지만, Applied ML에서 수행 한 모든 작업을 활용하여 알고리즘의 예측을 그룹 등으로 분류 할 수 있도록 정말 쉽고 정말 친근하게 만들 수 있을까요?그래서, 당신은 실제로 정말 중요한 근무 시간과 같은 것들을 포함하여 전체 레이어 케이크를 가지고 있습니다.중앙 집중식입니다.
호아킨 (30:15) :
그리고 보시다시피 모든 제품 팀은 중앙 집중식 팀과 매우 긴밀하게 협력 할 자체 내장 전문가 그룹을 구축하고 있습니다.그리고 이렇게해야하는 이유는 중앙 집중식 팀이 일관된 관행, 일관된 용어 및 정의를 갖도록해야하지만, 이전에 결정을 내릴 필요가 있기 때문입니다.
호아킨 (30:45) :
따라서 중앙 집중식 팀이 상황에 따라 매우 많은 결정을 내리는 것은 비실용적이고 비효율적입니다.그리고 가장 큰 것은 우리가 말했기 때문입니다. 그것은 과정입니다. 당신은 한 번 결정을 내리지 않고 끝났습니다.당신은 그것을 유지합니다.권리?
Jeremie (31:04) :
네.
호아킨 (31:06) :
참고로 나는 Shalini Kantayya의 영화 Coded Bias를 봤습니다.Joy Buolamwini, Timnit Gebru, Cathy O’Neil 및 Responsible AI에 대한 다른 많은 뛰어난 연구원들이 등장합니다.그리고 사람들이 살고 있다고 인용하고 그 사람을 오해하는 것은 정말 위험하다고 생각합니다.
호아킨 (31:32) :
그들 중 하나는 그 추상화 수준을 유지하려고합니다. 누가 말했는지 기억이 나지 않기 때문입니다. 그들 중 하나는“공정성과 같은 책임감있는 AI 관행 중 대부분은 위생과 같습니다.매일 양치질을해야하는 것 같아요.”그래서 제가 생각하는 방식입니다.제품의 맥락에서해야합니다.따라서 점점 더 많은 제품 팀이 자체적으로 노력을 기울이고 있으며 그들과 매우 긴밀하게 협력하고 있습니다.
Jeremie (32:04) :
그리고 당신은 어떻게 결정합니까 … 그래서, 이것의 거의 경제적 측면이 제가 매료되었습니다.저는 OpenAI의 AI 정책 전문가 중 한 명인 Amanda Askell을 본 것 같습니다. 그녀는 알고리즘이 나쁘다는 이유를 찾을 수 있다면 알고리즘이 그럴 필요가 없다는 주제가 현재 AI 윤리 커뮤니티에 있다는 아이디어에 대해 트윗했습니다.배포.시대 정신 주의자들은 사람들이“오, 음,이 알고리즘은 이런 한계에서 차별을한다”고 말할 정도의 분위기가 있습니다.
Jeremie (32:33) :
물론 우리는 모든 알고리즘이 어떤 식 으로든 필연적으로 차별 할 것이라는 것을 알고 있습니다.그래서 우리가 말하는 일종의 문턱이 있어야합니다. 좋아요, 이것은 너무 많고 이것으로는 충분하지 않습니다.그 관점에서 경제적 절충에 대해 어떻게 생각하십니까?내 말은, 소가 집에 올 때까지 알고리즘을 편향하지 않으려 고 할 수 있지만 어느 시점에서 뭔가 시작되어야합니다.그래서 네, 그 트레이드 오프에 대해 어떻게 생각하십니까?
호아킨 (32:59) :
그 질문에 대한 순전히 정량적 인 답을 내놓는 것은 매우 어렵다고 생각합니다.다시 말하지만, 수학 및 공학 전문가로서 AI를 사용하여 증오심 표현을 줄이려면 오 탐지 비용이 40 달러와 3 센트라고 말하는 기능 비용을 절감 할 수 있기를 바랍니다.그래서 그것은 매우 어렵습니다.나는 그것이 닿는 것은 몇 가지에 있다고 생각합니다.저는 투명성을 생각하고 거버넌스에 영향을 미칩니다.
호아킨 (33:40) :
그리고 저는 일이 진행될 것이라고 생각합니다. AI를 제품으로 만들 때 위험 편익 분석에 대해 매우 투명한 제품에 대한 기대가있을 것이라고 생각합니다. 요즘 제가 사용하는 문구가 있습니다.아마도 누군가로부터 그것을 훔 쳤을 것입니다. 저는 잘 모르겠습니다.이 AI 최소화 아이디어,이 아이디어는 … 사람들이 데이터 최소화에 대해 이야기하는 것과 같은 방식입니다.그래서 AI 최소화.내 본능이 아니라 멋져서 AI를 사용 하자는 것 같아야합니다. AI 없이도 할 수 있을까요?그리고 대답이 아마도 그럴 수도 있지만 인공 지능을 넣으면 모든 사람에게 엄청난 가치를 더 해줍니다. 그것은 마치 정당화되고 가치가 있습니다.
호아킨 (34:33) :
그 다음에는 모든 위험 목록 인이면이 있습니다.그리고 위험 중 하나는 차별 일 수도 있고 불공정의 다른 정의 일 수도 있습니다.그리고 저는 이러한 트레이드 오프에 대해 투명하게 생각하고 피드백을 받고 수용 가능한 것을 조정하고 볼 수있는 폐쇄 루프 메커니즘을 이상적으로 좋아하는 것으로 생각합니다. 이것이 우리가하게 될 피할 수없는 미래라고 생각합니다.
호아킨 (35:06) :
제가 많이 사용하는 예는 인공 지능의 예는 아니지만 다시 말씀 드리지만 이러한 문제 중 상당수는 익숙한 인공 지능 문제가 아닙니다.우리는 콘텐츠 중재와 모든 사람에게 목소리를내는 것과 언론의 자유를 허용하는 것 사이의 어려운 절충에 대해 생각하지만 다른 한편으로는 유해한 콘텐츠로부터 커뮤니티를 보호합니다.그리고 분명히 해로운 잘못된 정보가 있습니다.우리는 우리 스스로 또는 우리 스스로이 일을 할 수 없거나해서는 안된다는 확고한 결론에 도달했습니다.그리고 제가 우리에게 말할 때 저는 당연히 페이스 북 직원으로서 말하고 있습니다.그러나 나는 이것이 일반적으로 기술 전반에 걸쳐 사실이라고 생각합니다.
호아킨 (35:55) :
우리는이 외부 감독위원회를 실험하고 있습니다.들어 보셨을 것입니다.전문가 그룹입니다.조례 및 운영 방식을 마련하기 위해 팀을 구성하는 데 많은 작업이 필요합니다.하지만 잠시 정신에 집중 해 보겠습니다.그 정신은 까다로운 결정이있을 것이라는 것입니다.완벽한 콘텐츠 정책은 없습니다.따라서 인간이 외부 조사와 전문 지식을 포함하는 거버넌스를 갖도록 개발하는 것은 필수적입니다.저는 결국 참여하는 것이 투명성, 책임 성, 거버넌스 메커니즘의 상호 작용이 될 것이라고 생각합니다.권리?
Jeremie (36:45) :
네.
호아킨 (36:46) :
축소하고 10 년 후 AI가 매우 널리 퍼지고 결과적으로 매우 중요하다고 생각한다면 참여형 거버넌스에 대한 하나의 큰 질문이 될 것입니다.
Jeremie (36:58) :
네.
호아킨 (36:59) :
친척이나 애완 동물을 수의사에게 데려가는 인공 지능이 어떤 종류의자가 운전처럼 꽤 경이적 일 것입니다.
제레미 (37:11) :
그리고 그 자체가 마치 페이스 북이하는 모든 과정에 이런 종류의 에너지 세를 부과하는 것과 거의 같습니다. 페이스 북이이 일을하는 것이 대단하다고 생각합니다.Facebook에 책임감있는 AI 부서가 있다는 것이 대단하다고 생각합니다.그리고 어느 정도는 그것이 오늘날 대규모로만 일어날 수 있다는 것이 완벽하게 합리적입니다. Facebook, Google 및 OpenAI와 같은 회사가 실제로 거대한 언어 모델과 거대한 컴퓨터 비전 모델을 구축 할 수있는 규모이기 때문입니다.그리고 이로 인해…이 작업에 더 많은 시간이 있었으면 좋겠지 만 AI에서의 파트너십에 대해 질문해야합니다.
호아킨 (37:43) :
물론입니다.
Jeremie (37:43) :
이 등식에서 매우 중요한 부분이기 때문입니다.제 개인적인 관심사 중 하나는 실제로 여기에서 이것에 대해 조금 이야기했지만 안전, 개인 정보 보호, 공정성, 윤리,이 모든 것들이 실제로 존재한다는 생각은 사실상 세금이라는 형태를 취합니다.경쟁적인 조직에서.구글은 페이스 북과 경쟁해야합니다.페이스 북은 다른 사람들과 경쟁해야합니다.시장입니다.
Jeremie (38:06) :
그리고 그것은 좋은 것입니다. 그러나 공정성에 대한 세금이있는 한, 안전에 대한 세금이있는 한, 그것은 모든 사람들이 이러한 방향으로 최소한의 투자를 시도하는 바닥까지 일종의 경쟁을 할 인센티브가 있음을 의미합니다.어느 정도.그리고 적어도 제가 항상 본 것처럼 Partnership on AI와 같은 그룹은 상호 작용을 중재하고 최소 기준을 설정하는 측면에서 흥미로운 역할을합니다.우선 그 해석에 동의하십니까?둘째, 기술이 발전함에 따라 AI에 대한 파트너십을 더 큰 역할로 어떻게 생각하십니까?이것이 큰 일이라는 것을 알고 있기 때문입니다.하지만 [누화 00:38:40]에 대해 폭 넓은 생각을하고자합니다.
호아킨 (38:39) :
아니요. AI에 대한 파트너십을 도입하게되어 기쁩니다.저는 이사회에 속해 있으며 지난 몇 년 동안 매우 관여 해 왔으며 전 세계가 필요로하는 조직이라고 생각합니다.그러나 나는 레이스 가설의 논리를 이해하는 데 도움을 주시면 감사하겠습니다.그리고 아마도 우리는 당신이 원하는 책임의 차원을 선택함으로써 그것을 매우 구체적으로 만들 수 있습니다.조금 힘들어요.나는 당신이 의미하는 바를 정말로 이해하고 있는지 확인하고 싶습니다.
Jeremie (39:14) :
예, 예, 물론입니다.그래서 저는 상상하고 있습니다 … 사실 저는 AI 안전 커뮤니티에 대한 조정에서 한 예를 들어 보겠습니다.그래서, 하나의 공통된 것은 가설입니다. 필자는 이것을 반드시 받아 들일 필요는 없습니다. 그러나 구체적으로 말하자면, 그것이 사실이라고 가정합시다. 언어 모델은 임의적으로 잘 확장 될 수 있고 효과적으로 오라클 또는 그와 유사한 초강력 모델과 같은 것으로 이어질 수 있습니다.그.따라서 그들은 본질적으로 초대형 언어 모델로 할 수있는 일의 양을 제한하지 않습니다.
Jeremie (39:43) :
그리고 안전이 우려되는 한, 플롯하고 계획을 세울 수있는 독단적으로 강력한 언어 모델을 원하지 않을 수도 있습니다.”Hey, Joaquin에서 $ 80,000처럼 사기를 치려면 어떻게해야합니까?”라고 말할 수 있습니다.그리고 언어 모델은 “오, 방법은 다음과 같습니다.”입니다.그러나 OpenAI와 같은 회사는 DeepMind와 같은 회사 또는 가능한 한 빨리 확장하기 위해 다른 회사와 경쟁하고 있습니다.어느 정도의 능력을 먼저 달성하는 사람은 6 개월이나 그 어떤 시간이라도 결정적인 이점이 있다는 것입니다.
제레미 (40:16) :
이에 대한 유사점, 공정성, 편견 등이 있습니다.하지만 안전에 한계 달러를 투자하거나 투자 할 수있는 회사 경쟁에 참여할 때마다 손실되는 가치가 항상 있습니다.능력의 한계 달러.그리고 그 절충안은… 인공 지능에 대한 파트너십이 최소한 모든 사람이 준수 할 것이라고 생각하는 표준을 설정하는 조직 간의 중재에 어떤 역할을 할 수 있는지 궁금합니다.
호아킨 (40:44) :
네.감사합니다.질문을 이해합니다.이 질문은 환경 지속 가능성에 대해 조금 생각하게합니다. 기업 간에는 물론 국가 간에도 여러 가지면에서 동일한 경쟁을 할 수 있습니다.하나의 행성이있는 것과 같습니다.누가 CO2 비용 절감에 전념할까요?오, 음, 잠깐만 있으면 곧 돌아 올게요.
제레미 (41:10) :
이 나무 바로 뒤에.
호아킨 (41:13) :
바로 그거죠.저는 AI에 대한 파트너십이 여러 측면에서 핵심적인 역할을한다고 생각합니다.첫째, 포럼, 학계, 시민권 단체, 시민 사회, 기타 비영리 단체, 중소기업 및 대기업을 생각할 수있는 모든 유형의 조직을한데 모은 매우 독특한 포럼입니다.그리고 AI 파트너쉽에 관한 이러한 조직 중 일부는 다가오는 규제를 적극적으로 로비하고 형성하고 알리게 될 것입니다.그래서 저는 이미 대기업이 참여하고 길을 이끌어야한다는 압력이 이미 약간 있다고 생각합니다. 그렇게하지 않으면 모두에게 나쁜 규제를 처리해야 할 수도 있기 때문입니다.그래서 저는 그것이 한 각도 인 것 같습니다.
호아킨 (42:16) :
다른 각도는 효율성입니다.당신이 설명 해주신 일 중 일부는 저의 큰 언어 모델이 인간의 가치와 조화를 이루고 악이 아닌지 확인하는 데 투자 할 수있는 그 돈 중 일부는 대규모의 지원을받는 조직이 있다면ABOUT ML과 같은 프로젝트는 데이터 세트 및 모델에 대한 문서화 관행을 기반으로 구축 된 제가 좋아하는 프로젝트입니다. 데이터 시트, 모델 카드 및 사물에 대한 데이터 시트와 같은 아이디어의 조합입니다.그렇게, 이것들은 매우 강력합니다.
호아킨 (43:04) :
그리고 우리 페이스 북은 확실히 엄청난 관심을 기울이고 그것을 실험하고 있습니다.그리고 저는 우리가 A, 비교적 기성품이지만 아주 [누화 00:43:16] 무언가를 사용할 수있어서 기쁩니다. 우리가 직접 만들 필요가없고 추가 점수를 얻기 위해 요.이는 우리의 이익만을 나타내는 것이 아니라 AI 기반의 파트너십과 같은 조직에서 구축 한 검증과 신뢰성을 얻습니다.그리고 그것은 일반적인 패턴이 될 것이라고 생각합니다.
호아킨 (43:33) :
A는 모든 사람이있는 다중 이해 관계자 조직을 통해 얻을 수있는 360도 뷰입니다.둘째, 자신이하고있는 일을 실제로 알고있는 사람들이 제공하는 모범 사례와 권장 사항을 제공하는 효율성과 편리함, 그리고 이것이 생성되는 동안 모든 사람이보고 있었다는 사실을 알고 있습니다.그리고 세 번째는 페이스 북의 윤리적 원칙과는 다른 것을 사용함으로써 얻을 수있는 정당성과 검증입니다.권리?
Jeremie (44:06) :
네.
호아킨 (44:06) :
제 말은, 사람들이 눈살을 찌푸리고 사람들이 “오, 제 말은 거기에 어떤 관심사가 표현되어 있는가?”AI의 파트너십이 아닌 Facebook 만 있습니다.
Jeremie (44:17) :
네.내 말은, 앞으로 더 많이 볼 수 있기를 바라는 조직 중 하나입니다.그리고 그것은 그 조직의 초기 커널이 계속 꽃을 피우고있는 것 같습니다. 왜냐하면 여러분이 말했듯이 우리는 매우 다양한 수준에서이 공간에 대한 일종의 다 당파 감독이 필요하기 때문입니다.그리고 이니셔티브가 구체화되는 것을 보는 것이 좋습니다.호아킨, 시간 내 주셔서 감사합니다.사실, 특히 트위터와 같은 콘텐츠를 공유하고 싶은 곳이 있습니까? 아니면 사람들이 당신의 작업에 대해 더 많이 알고 싶어 할 때 사람들을 가리키고 싶은 개인 웹 사이트가 있습니까?
호아킨 (44:49) :
오, 고백이 있습니다.그래서 저는 늦은 트위터 사용자입니다.
Jeremie (44:58) :
오, 아마 정신 건강에 좋을 것입니다.
호아킨 (45:03) :
하지만 이제는 공개 토론에 기여하고 참여하는 것이 [들리지 않음 00:45:14] 일 수 있다는 강한 책임감을 느낍니다.지금 당장 내 트위터를 찾아 보느라 너무 당황 스러울거야.Twitter에서는 @jquinonero입니다.자, J와 제 이름입니다.복잡합니다.스페인에서 왔기 때문에 성이 두 개 있습니다.
Jeremie (45:33) :
우리는 그것을 공유 할 수 있습니다.
호아킨 (45:34) :
우리는 … 정확합니다.그래, 그래.더 많이 참여하겠다고 개인적으로 약속했고, 말씀하신 것처럼 내 정신 건강을 방해하지 않는 방식으로이를 수행하는 방법을 배워야 할 것입니다.
Jeremie (45:48) :
네.나는 그것이 어떤 이유로 가장 큰 도전 중 하나라고 생각합니다. 특히 트위터에서 나는 그 마음을 챙기는 상태를 유지하고 피드에서 길을 잃지 않는 것을 발견했습니다.소년.어쨌든, 우리는 10 년 동안 지옥에 왔습니다.하지만 시간을 내 주셔서 감사합니다.정말 감사하고 대화를 정말 즐겼습니다.
호아킨 (46:05) :
정말 고마워요, Jeremie.여기에 오게되어 정말 기쁩니다.그리고이 팟 캐스트를 해주셔서 감사하고 모든 사람들이 이런 종류의 대화에 참여하게 해주셔서 감사합니다.
Jeremie (46:17) :
천만에요.