Tableau’s relationships are pretty cool -번역

Tableau 관계는 매우 멋지다

조인과 달리 관계는 데이터의 기본 세분성을 유지하므로 LOD 식의 필요성이 줄어 듭니다.

지난 여름 Tableau는 데이터를 결합하는 새로운 방법을 도입했습니다.그것은이라고관계.데이터를 결합하는 오래된 방법조인여전히 사용할 수 있으며 우리 중 많은 사람들이 한동안 익숙한 조인을 고수 할 것이라고 생각합니다.그러나 관계는 그들을 추천 할 것이 많고이 포스트는 그들의 인과 아웃을 보여줄 것입니다.아래 세 가지 표를 고려하십시오.

작성자의 이미지.

사용조인Tableau는 이러한 테이블을 하나로 결합합니다.플랫다음과 같은 파일 :

Image for post

테이블을 하나의 플랫 파일로 결합하면 일부 데이터의 세분성이 변경됩니다.작성자의 이미지.

dif로 테이블 결합에프정확한 세분성 수준은 더 많은 집계 수준의 세분성을 가진 테이블 (이 경우 director 및 ratings 테이블)의 관찰을 복제합니다.이 테이블에서 측정 값을 올바르게 요약하려면 다음을 사용해야합니다.LOD 표현식어려울 수 있습니다.

관계각 테이블의 기본 수준을 유지합니다.사용자는 단순히 테이블이 관련되는 방식을 정의하고 필요에 따라 조인이 수행됩니다.

Image for post

관계는 데이터의 기본 세분성을 유지합니다.작성자의 이미지.

이러한 테이블의 측정 값을 포함하는 요약을 만들 때 각 측정 값은 기본 세분성 수준을 사용하여 요약됩니다.

Image for post

작성자의 이미지.

두 감독의 평균 연령은 60 세입니다. James Cameron은 매주 5 번의 박스 오피스 출품작을 보유하고 있으며 Rian Johnson은 단 2 세입니다.나이는 기본 단위가 director 인 directors 테이블에서 가져 오므로 평균은 director에서 계산됩니다.이것은 Tableau를 처음 접하는 사람에게는 당연한 일이지만 LOD 식을 사용하여 중복을 수정하고 데이터를 하나의 결합 된 플랫 파일로 생각하는 데 익숙한 사람들에게는 이것은 다소 혁신적입니다.

아래의 산점도에서 그 아이디어를 다시 설명하겠습니다.영화로 박스 오피스의 합계에 대한 감독의 나이를 계획하고 있습니다.Tableau는 흥행 테이블에서 각 영화의 흥행 수익을 합산하지만 감독 테이블에서 감독의 나이를 취하고 각 감독이 해당 테이블에 한 번만 있기 때문에 나이가 중복되지 않습니다.

Image for post

작성자의 이미지.

또한 관계에서 오른쪽, 왼쪽, 전체 또는 내부 조인을 사용할지 여부에 대해 걱정할 필요가 없습니다.뷰에 사용 된 테이블에 차원이 있으면 해당 차원이 비주얼리 제이션에 포함됩니다.한 테이블에는 있지만 다른 테이블에는없는 차원 측정 값에 대해 생성 된 Null이 없습니다.

작성자의 이미지.

관계에 따른 또 다른 변화는기록 수들.이제 각 테이블과 관련된 (count) 필드가 있습니다.이는 각 테이블이 세분화 수준을 유지하므로 자체 레코드 수가 있기 때문에 의미가 있습니다.

관계는 완벽하지 않습니다.현재 그들은계산 “결합”을 지원하지 않음즉, 계산을 기반으로 관계를 정의 할 수 없습니다.즉, 필드 분할 또는 두 필드 연결과 같이 관계를 설정하는 데 필요한 모든 작업은 소스에 연결하기 전에 수행해야합니다.Tableau가 곧 관계에 대한 계산을 구축하기를 바랍니다.

데이터 소스 필터가 관련 테이블에 걸쳐 확장된다는 점도 주목할 가치가 있습니다.테이블이 별도로 유지된다고 생각할 수 있지만 그렇지 않습니다. 한 테이블의 값에 대한 필터가 관련 테이블의 일치하는 값에 적용됩니다.예를 들어 50 세 감독 만 포함하도록 필터를 추가하면 감독 테이블에서 James Cameron뿐만 아니라 영화 테이블에서 그의 모든 영화도 제외됩니다.(또한 null을 포함하도록 지정하지 않는 한 Jordan Peele의 Us도 제외됩니다.)

Tableau는 관계를 잘 설명합니다.여기.관계의 논리에 익숙해지는 데는 다소 시간이 걸리지 만 시도해 볼 가치가 있습니다.

Image for post

작성자의 이미지.

Tableau’s relationships are pretty cool

Tableau’s relationships are pretty cool

Unlike joins, relationships preserve the native granularity of data, reducing the need for LOD expressions.

Last summer, Tableau introduced a new way of combining data. It is called relationships. The old way of combining data using joins is still available, and I imagine that many of us might stick with the familiar joins for a while. However, relationships have much to recommend them and this post will show some of their ins and outs. Consider the three tables below:

Image by author.

Using joins Tableau would combine these tables into one flat file like this:

Image for post

Joining tables into one flat file changes the granularity of some data. Image by author.

Joining tables with different levels of granularity duplicates observations in tables with more aggregate levels of granularity — in this case, director and ratings tables. Correctly summarizing measures from these tables requires using LOD expressions which can be challenging.

Relationships preserve the native level of granularity of each table. Users merely define how tables are related and joins are performed as needed.

Image for post

Relationships preserve the native granularity of the data. Image by author.

When we create summaries that involve measures from these tables, each measure is summarized using its native level of granularity.

Image for post

Image by author.

The average age of our two directors is 60 — never mind that James Cameron has five weekly box office entries and Rian Johnson only two. Since age comes from the directors table whose native granularity is director, the average is calculated across directors. This is natural to anyone new to Tableau, but to those of us used to using LOD expressions to correct for duplication, and used to thinking of our data as one joined flat file, this is rather revolutionary.

Let’s illustrate that idea again in the scatter plot below. We are plotting director’s age against sum of box office by movie. Tableau adds up box office revenue for each movie from the box office table, but it takes director’s age from the director’s table and since each director is in that table only once, age does not get duplicated.

Image for post

Image by author.

Notice also that with relationships we don’t have to worry about whether to use right, left, full or inner join. If a dimension exists in any of the tables used in the view, the dimension is included in the viz. There are no nulls generated for measures of dimensions that are present in one table but not another.

Image by author.

Another change that comes with relationships is the disappearance of the Number of Records field. Now, there is a (count) field associated with each table. This makes sense since each table preserves its level of granularity and thus has its own number of records.

Relationships are not perfect. At the moment, they don’t support calculation “joins”, i.e. it is impossible to define a relationship based on a calculation. This means that any operations required for establishing a relationship, such as splitting a field or splicing two fields, need to be done prior to connecting to the source. Let’s hope that Tableau builds calculations into relationships soon.

It is also worth noting that data source filters extend across related tables. You may think that the tables are kept separate but that is not the case: a filter on values in one table will apply to matching values in related tables. For example, adding a filter to include only directors who are 50 years old, excludes not just James Cameron from the directors table but also all of his movies from the movies table. (It also excludes Jordan Peele’s Us unless we specify to include nulls.)

Tableau does a great job explaining relationships here. While it takes some getting used to the logic of relationships they are definitely worth a try.

Image for post

Image by author.

2021년 1월 22일 성남시 분당구 부동산 경매 데이터 분석

2021년 1월 22일 용인시 부동산 경매 데이터 분석

2021년 1월 22일 수원시 부동산 경매 데이터 분석

2021년 1월 21일 모바일 게임 매출 순위

Rank Game Publisher
1 리니지2M NCSOFT
2 리니지M NCSOFT
3 세븐나이츠2 Netmarble
4 기적의 검 4399 KOREA
5 메이플스토리M NEXON Company
6 Genshin Impact miHoYo Limited
7 블레이드&소울 레볼루션 Netmarble
8 R2M Webzen Inc.
9 라이즈 오브 킹덤즈 LilithGames
10 V4 NEXON Company
11 뮤 아크엔젤 Webzen Inc.
12 바람의나라: 연 NEXON Company
13 S.O.S:스테이트 오브 서바이벌 KingsGroup Holdings
14 PUBG MOBILE KRAFTON, Inc.
15 KartRider Rush+ NEXON Company
16 미르4 Wemade Co., Ltd
17 찐삼국 ICEBIRD GAMES
18 라그나로크 오리진 GRAVITY Co., Ltd.
19 Lords Mobile: Kingdom Wars IGG.COM
20 A3: 스틸얼라이브 Netmarble
21 Roblox Roblox Corporation
22 리니지2 레볼루션 Netmarble
23 가디언 테일즈 Kakao Games Corp.
24 그랑삼국 YOUZU(SINGAPORE)PTE.LTD.
25 AFK 아레나 LilithGames
26 블리치: 만해의 길 DAMO NETWORK LIMITED
27 Empires & Puzzles: Epic Match 3 Small Giant Games
28 FIFA ONLINE 4 M by EA SPORTS™ NEXON Company
29 Age of Z Origins Camel Games Limited
30 Pmang Poker : Casino Royal NEOWIZ corp
31 Cookie Run: OvenBreak – Endless Running Platformer Devsisters Corporation
32 검은사막 모바일 PEARL ABYSS
33 Pokémon GO Niantic, Inc.
34 한게임 포커 NHN BIGFOOT
35 Gardenscapes Playrix
36 아일랜드M Gamepub
37 Brawl Stars Supercell
38 Top War: Battle Game Topwar Studio
39 Epic Seven Smilegate Megaport
40 Homescapes Playrix
41 컴투스프로야구2021 Com2uS
42 명일방주 Yostar Limited.
43 Random Dice: PvP Defense 111%
44 FIFA Mobile NEXON Company
45 사신키우기 온라인 : 경이로운 사신 ep1 DAERISOFT
46 황제라 칭하라 Clicktouch Co., Ltd.
47 카이로스 : 어둠을 밝히는 자 Longtu Korea Inc.
48 랑그릿사 ZlongGames
49 Summoners War Com2uS
50 Rise of Empires: Ice and Fire Long Tech Network Limited

Responsible AI at Facebook -번역

사과|GOOGLE|스포티 파이|기타

Facebook의 책임있는 AI

To select chapters, visit the Youtube video here.

편집자 주 :이 에피소드는 데이터 과학 및 기계 학습의 새로운 문제에 대한 팟 캐스트 시리즈의 일부입니다.,Jeremie Harris가 주최합니다.팟 캐스트 호스팅 외에도 Jeremie는 데이터 과학 멘토링 스타트 업을 운영하는 데 도움을줍니다.SharpestMinds.아래 팟 캐스트를들을 수 있습니다.

Listen on Apple, Google, Spotify

Facebook은 매일 수십억 명의 삶에 영향을 미치는 추천 시스템과 예측 모델을 정기적으로 배포합니다.이러한 종류의 도달에는 큰 책임이 따릅니다. 무엇보다도 윤리적이고 공정하며 잘 특성화 된 AI 도구를 개발할 책임이 있습니다.

이것은이자형asy 작업.인간은 “공정성”과 “윤리”가 무엇을 의미하는지에 대해 수천 년을 보냈지 만 합의에 가까워지지 않았습니다.이것이 바로 책임있는 AI 커뮤니티가 탐색하고 권장 할 정책을 결정할 때 가능한 한 많은 이질적인 관점을 포함해야하는 이유입니다. 이는 Facebook의 책임있는 AI 팀이 자체적으로 적용한 관행입니다.

이 팟 캐스트 에피소드에서는 Facebook의 Responsible AI의 저명한 기술 책임자 인 Joaquin Quiñonero-Candela와 합류했습니다.Joaquin은 수년 동안 AI 윤리 및 공정성 운동의 최전선에 있었고 Facebook의 책임있는 AI 팀 구성을 감독했습니다.결과적으로 그는 대규모 AI 윤리 결정을 내리고 그 효과를 확인한 실무 경험이있는 비교적 소수의 사람 중 한 명입니다.

우리의 대화는 공정성의 정의에 대한 철학적 질문에서 특정 윤리적 AI 프레임 워크를 구현할 때 발생하는 실제적인 문제에 이르기까지 많은 근거를 다루었습니다.다음은 제가 가장 좋아하는 테이크 홈입니다.

  • Joaquin은 AI의 맥락에서 공정성에 대해 생각하는 세 가지 다른 방식을 강조하며, 이들 모두는 서로 다른 그룹 (성별, 인종 등)에서 주어진 알고리즘의 성능을 비교하는 데 어느 정도 관심이 있습니다.첫 번째는 모든 그룹에 대해 최소 수준의 성과를 달성하는 경우 시스템을 공정하게 고려하는 것입니다.여기에는 “종족을 5 % 이상 잘못 분류해서는 안됩니다”와 같은 표준 설정이 포함됩니다.
    두 번째 접근 방식은 더 나아가서 동일성을 요구합니다. 알고리즘 성능이 그룹간에 너무 많이 달라지지 않아야한다는 생각입니다.이 표준을 적용하면 “종족이 다른 어떤 민족보다 평균적으로 3 % 이상 더 자주 잘못 분류되지 않아야합니다.”와 같은 요구 사항이 발생합니다.
    마지막 전략은 그룹 간의 결과 차이를 최소화하는 것입니다.여기서 아이디어는 “모든 그룹이 행동 X를 동일하게 수행 할 가능성이 있으므로 모든 그룹이 동일한 확률로 X를 수행 할 것이라고 예측하지 못하는 알고리즘은 불공평해야합니다.”라는 사전을 적용하는 것입니다.
  • 한 가지 핵심 질문은 주어진 상황에 적용되는 공정성 표준을 누가 결정할 수 있는가입니다.호아킨은 이것을 공정성 문제의 핵심으로 봅니다. 우리는 모든 심오한 도덕적 논쟁을 조만간 해결하지 않을 것이므로, 지금 도덕적으로 명료 한 척하는 대신 특정 결정의 공정성을 허용하는 프로세스를 만드는 데 집중해야합니다.사례별로 결정됩니다.그런 이유로 그의 팀의 진언은 “공정성은 과정”이라는 것입니다 (그는 말 그대로 그것을 증명할 티셔츠를 얻었습니다!).
  • 공정성 프로세스가 무엇을 포함하든 데이터 과학자가 모든 것을 스스로 처리 할 것으로 기 대해서는 안됩니다.데이터 과학자는 윤리와 철학의 마스터가 될 시간이 없으므로 기술 팀에 도달하기 전에 이러한 도덕적 질문을 추상화하는 구조를 설정해야합니다.이를 위해 Facebook의 Responsible AI 이니셔티브는 “허브 앤 스포크”모델에 따라 작동합니다. 핵심 팀은 개방적이고 투명한 방식으로 윤리 표준을 설정하고 해당 표준을 전문 팀에 의해 수학으로 변환합니다.데이터 과학자가 구현할 수있는 정의.
  • Joaquin은 단일 조직의 인센티브 나 관점을 반영하는 것이 아니라 책임감있는 AI 개발에 대한보다 보편적 인 표준을 확립하기 위해 대기업 간의 협업 및 조정의 중요성이 커지고 있다고 설명합니다.그런 정신으로 그는 이제 AI 윤리 모범 사례 및 안전한 AI 개발과 관련된 질문을 조정하기 위해 Facebook, Google, Microsoft 및 OpenAI와 같은 주요 플레이어를 모으는 우산 조직인 Partnership on AI와 협력하고 있습니다.

당신은 할 수 있습니다여기 트위터에서 호아킨을 팔로우하세요, 또는여기 트위터에서 나를 따르라

Links referenced during the podcast:

Chapters:

  • 0:00 Intro
  • 1:32 Joaquin’s background
  • 8:41 Implementing processes
  • 15:12 No single optimization function
  • 17:51 Definitions of fairness
  • 28:03 How fairness is managed at Facebook and Twitter
  • 32:04 Algorithmic discrimination
  • 37:11 Partnership on AI
  • 44:17 Wrap-up

Please find below the transcript:

Jeremie (00:00) :

안녕 모두들.여기 제레미.팟 캐스트에 다시 오신 것을 환영합니다.오늘의 에피소드가 정말 기대됩니다. Facebook에서 책임감있는 AI가 수행되는 방식에 대해 이야기 할 것이기 때문입니다.이제 Facebook은 매일 말 그대로 수십억 명의 삶에 영향을 미치는 추천 시스템과 예측 모델을 일상적으로 배포합니다.그리고 이러한 종류의 도달 범위에는 무엇보다도 윤리적이고 공정하며 특성이 뛰어난 AI 도구를 개발해야하는 큰 책임이 따릅니다.

Jeremie (00:22) :

이것은 정말 쉬운 일이 아닙니다.인간은 공정성과 윤리가 의미하는 바가 무엇인지에 대해 수천 년을 보냈으며 이러한 문제에 대한 합의에 가까운 것은 없습니다.이것이 바로 Responsible AI 커뮤니티가 탐색하고 권장 할 정책을 결정할 때 가능한 한 많은 이질적인 관점을 포함해야하는 이유입니다.이것이 바로 Facebook의 책임있는 AI 팀이 적용한 관행입니다.

Jeremie (00:44) :

이제이 팟 캐스트 에피소드에서는 Facebook에서 Responsible AI의 저명한 기술 책임자 인 Joaquin Quinoñero-Candela와 합류했습니다.Joaquin은 수년간 AI 윤리 및 AI 공정성 운동의 최전선에있었습니다.그리고 그는 기본적으로 처음부터 Facebook의 전체 책임감있는 AI 팀 구성을 감독했습니다.따라서 그는 대규모 AI 윤리 결정을 내리고 그 효과가 나타나는 것을 직접 확인한 실무 경험이있는 비교적 소수의 사람 중 한 명입니다.

Jeremie (01:09) :

이제 우리의 대화는 공정성 자체의 정의에 대한 철학적 질문에서 특정 AI 윤리 프레임 워크를 구현할 때 발생하는 실제적인 문제에 이르기까지 많은 근거를 다룰 것입니다.이것은 대단한 것입니다.이 에피소드를 여러분과 공유 할 수있게되어 너무 기쁩니다. 여러분도 즐겨 주시기 바랍니다.호아킨, 팟 캐스트에 함께 해주셔서 정말 감사합니다.

호아킨 (01:26) :

고마워, Jeremie.저를 가져 주셔서 감사합니다.정말 기쁘고 여러분의 팟 캐스트가 정말 마음에 듭니다.

Jeremie (01:32) :

음, 정말 감사합니다.당신이 여기에 오게되어서 기쁩니다.이 대화가 정말 기대됩니다.토론 할 수있는 내용이 너무 많지만 상황에 맞는 부분이있어 문제를 해결하는 데 유용 할 것 같습니다.그리고 그것은 당신의 배경, 당신이 어떻게이 공간에 들어 갔는지, 누군가가 ML과 학문적 여정 밖에서 어떻게 들어 와서 결국 당신이있는 위치에 도달했는지에 대한 짧은 대화입니다. 그리고 그것은 책임있는 AI 이니셔티브를 이끌고 있습니다.페이스 북.거기 어떻게 갔어요?

호아킨 (01:56) :

내 여정에 대해 얘기하면 오래 갈 수 있기 때문에 원할 때마다 나를 방해 할 수있는 거래를해야합니다.저는 매우 높은 수준에서 2004 년에 머신 러닝 박사 학위를 마쳤다고 생각합니다. 당시에는 제가 속한 커뮤니티에서 AI라는 단어를 사용하는 사람이 거의 없었습니다. NeurIPS 커뮤니티는 대부분 ML 커뮤니티였습니다.나는 학업에 약간의 시간을 보냈습니다.저는 독일 막스 플랑크 연구소에서 박사후 연구원이었습니다.첫 번째 전환은 2007 년 1 월 영국 케임브리지에서 연구 과학자로 Microsoft Research에 합류했습니다.

호아킨 (02:43) :

그래서 제 경력에서 매우 근본적인 일이있었습니다. 기계 학습을 사용하는 제품 팀을 만났다는 것입니다.특히 Microsoft의 검색 엔진이 출시되기 전에 Bing 조직이 될 팀과 대화를 시작했습니다.그리고 우리는 사람들을위한 광고의 관련성을 높이기 위해 ML을 적용하기 시작했습니다.특히, 우리는 누군가가 광고를 보게된다면 광고를 클릭 할 것인지 예측하는 모델을 구축하고있었습니다.그 작업은 ML이 과학 논문에서 한 것이 아니라 실제로 프로덕션에 넣을 수 있다는 생각에 매료되었습니다.

호아킨 (03:24) :

그래서 2009 년에 Bing 조직은 저에게 “이봐 요, Microsoft Research의 안락함, 그처럼 편안한 연구 환경에서 벗어나는 것이 어떻습니까? 그리고 엔지니어링 관리자가되어 Bing 내에서 팀을 이끌지 않겠습니까?”그래서 저는 그렇게했습니다.엔지니어링 리더가되는 것에 대해 전혀 몰랐기 때문에 제 인생에서 가장 스트레스가 많고 극적인 전환 중 하나 였을 것입니다.로드맵, 인원수 계획, 예산 책정, 통화 중, 주요 생산 구성 요소를 담당하는 일에 익숙하지 않았습니다.그래서 꽤 스트레스가 많았습니다.하지만 동시에 저에게 반대편의 시각을 주었기 때문에 훌륭했습니다.

호아킨 (04:04) :

그리고 제 경력 전체에서 되풀이되어 지금도 계속되는 한 가지 주제는 기술 이전에 대한 아이디어입니다.화이트 보드, 수학, 아이디어, 연구, 실험에서 유지 관리 및 실행이 필요한 프로덕션 시스템으로 이어지는 깔때기입니다.

호아킨 (04:22) :

그래서이 전환은 저에게 연구의 반대편에있는 다른 세계에 대한 1 인칭 시각을 제공했습니다. 때로는 연구원으로서 여러분이 들어가서 이렇게 말할 수있는 다른 세계입니다.“이봐 요.제가 방금 만든 멋진 모델입니다.”그리고 사람들은“이럴 시간이 없습니다.바빠요.”그래서 갑자기 저는 반대편에있었습니다.훌륭한 경험이었고 결국 경매 최적화 팀을 구축하는 데 도움이되었습니다.그래서 메커니즘 설계와 경제, 경매에 대해 조금 알게되었습니다.

호아킨 (04:57) :

그리고 2012 년 5 월에 Facebook에 왔습니다. 광고 조직에 합류했습니다.저는 광고를위한 기계 학습 팀을 구축하기 시작했습니다.그리고 제 커리어에서 두 번째로 중요한 순간이 일어났다 고 생각합니다. 즉, 모든 사람에게 말하고 싶은 말은 마법사가 확장하지 않는 것이 저를 정말 세게 때렸다는 것입니다.

호아킨 (05:16) :

그래서 우리가 가진 도전은 페이스 북에 뛰어난 기계 학습 연구원이 몇 명 있었지만 해결해야하는 문제의 수는 계속 증가했습니다.그리고 우리는 빠르게 움직이는 우리 자신의 능력에 거의 문을 두었습니다.사람들은 자신의 상자에 모델을 만들고 프로덕션으로 배송하기위한 자체 프로세스를 갖게되었고 모든 것이 느리다고 느꼈습니다.그리고 집착은 어떻게 우리가 연구를 생산으로 가속화 할 수 있을까요?공장을 어떻게 지을 수 있습니까?

호아킨 (05:51) :

그리고 그것은 흥미로운 시간이었습니다. 갑작스럽고 어려운 결정은 가능한 한 순위와 추천을 위해 가장 복잡한 신경망을 구축하기 위해 서두르는 것이 아니라 우리가 가지고있는 기술을 고수합시다. 합리적입니다..우리는 부스트 된 의사 결정 트리를 사용하고 있었고 온라인 선형 모델과 같은 것들을 사용했습니다. 비교적 간단한 것입니다.대규모에서는 그렇게 간단하지 않을 수 있습니다.하지만 아이디어는 매주 배송 할 수 있습니까?몇 주가 걸리지 않도록

Jeremie (06:26) :

와.

호아킨 (06:26) :

네, 그게 비전이었습니다.비전은 매주 배였습니다.진언과 거의 비슷해졌습니다.다들“매주 배를 배워요”라고 했어요그래서 우리는 연구에서 생산까지의 경로를 관리하기위한 전체 생태계를 구축했습니다.그리고 그것은 많은 일을했습니다.회사 전체에 걸쳐 구축 한 도구 모음입니다.광고에만 집중했기 때문에 흥미 롭습니다.아이디어는 모든 종류의 모델을 구축하는 광고의 모든 사람이 모든 종류의 표면에서 어떤 종류의 이벤트를 예측하여 실제로 코드를 공유하고 아이디어를 공유하며 실험 결과를 공유하는 것이 매우 쉬울 것이라는 것이 었습니다.

호아킨 (07:00) :

거의 실제로 누구와 이야기해야하는지 아는 것입니다.사실 가장 중요한 것은 커뮤니티를 구축하는 것입니다.비전은 이것이 실제로 모델을 표현하는 프레임 워크와 무관 한 것이 었습니다. TensorFlow와 Keras가 인기를 얻었을 때 당연히이를 지원했습니다.PyTorch를 지원합니다.하지만 정말로 C ++로 처음부터 무언가를 작성하고 싶다면 게스트가 되십시오.꽤 불가지론 적입니다.워크 플로 관리에 관한 것입니다.

호아킨 (07:28) :

결국 팀은 우리가 구축하고있는 것을 채택하도록 요청하기 시작했습니다.그리고 시간이 지나면 회사 전체가 우리가 만든 것을 채택했습니다.우리는 컴퓨터 비전, NLP, 음성, 추천, 기계 번역, 기본적으로 모든 것을위한 전문 서비스를 위에 추가하기 시작했습니다.그로 인해 Applied ML이라는 팀이 탄생했습니다. 제가 몇 년 동안 구축을 도왔고이 팀은 기본적으로 회사 전체에 제공하고 ML을 민주화하여 모든 제품 팀의 손에 맡겼습니다.

호아킨 (08:06) :

아이디어는 마법사가 확장되지 않기 때문에 그렇게 많은 마법사가 필요하지 않으며, 마법사가 근본적인 혁신의 창시자가 될 것이지만 회사 전체에서 수천 명의 엔지니어는 아니더라도 수백 명의 엔지니어로 구성된 생태계를 가질 수 있다는 것입니다.이러한 것들을 매우 쉽게 활용하고 구축 할 수 있습니다.그래서 저는 본질적으로 3 년 전까지 그렇게했습니다.그리고 우리가 전환하기 전에이 부분에 대한 질문을하고 싶으 시다면 여기에서 숨을 쉬겠습니다. Responsible AI 로의 전환 인 세 번째 큰 순간이 될 것 같습니다.

Jeremie (08:41) :

특히 경력의 두 번째 단계에서 저에게 큰 도움이되는 사항 중 하나는 프로세스 구현에 정말 능숙 해지는 것과 같은 프로세스 구현에 대해 이야기하고 있다는 것입니다.그리고 사람들이 인공 지능 윤리, 인공 지능 공정성, 그런 종류의 이야기를 할 때마다 이것이 저를 오싹하게하거나 전체 공간에 대해 약간 긴장하게 만드는 것이 명백한 일관성 부족이라는 것 같습니다.

Jeremie (09:04) :

AI 공정성이 무엇인지, AI 윤리가 무엇인지 알기는 어렵습니다.모든 사람이 다른 정의를 가지고있는 것 같습니다.또한 이러한 정의를 얻은 후에도 복제 가능하고 확장 가능한 프로세스로 코드화 할 수있는 방법도 명확하지 않습니다.그래서 그 전문성은 중요 했겠죠?프로세스 개발 흐름이 AI 작업의 공정성에 매핑 될까요?

호아킨 (09:27) :

그렇습니다.이제 머리에 못을 박았습니다.회사 내부에서 AI를 민주화 할 때했던 많은 일들이 현재 우리가 Responsible AI를 개발하고 있다는 점에서 많은 도움이 되었기 때문에 흥미 롭습니다.하지만 지금 당장 Facebook에서 프로덕션에 배포 된 모든 모델이 무엇인지, 누가 모델을 만들 었는지, 어떤 모델로 들어 갔는지 확인할 수있는 도구가 있다는 생각은 이러한 수준의 방해와 일관성을 제공하는 것입니다., 정말 중요합니다.하지만 물론 Responsible AI에는 훨씬 더 많은 것이 있습니다.당신이 말했듯이, 개념의 정의에 대해 광범위한 의견 차이가 있습니다.그래서, 그 세계로의 저의 여정에 대해 말씀 드리겠습니다.

호아킨 (10:23) :

저는 공정성, 책임 성, 투명성 워크숍을 눈꼬리로 따라 가고있었습니다.나는 그것이 일어난 첫해가 아마도 2014 년이나 NeurIPS에서 그와 비슷한 일이라고 생각하며, 계속 반복되었습니다.그리고 2018 년이 싹 트는해라 고 생각합니다.사실 저는 그 워크숍에 참석했습니다.그것은 독자적인 종류의 회의가되었고 2018 년에는 뉴욕에서 열렸습니다.

호아킨 (10:53) :

하지만 2017 년 말 뉴욕 컨퍼런스에서 케이트 크로포드 나 솔론 바로 카스 등 많은 사람들의 기본적인 기조 연설이 몇 차례있었습니다.제 뇌 전체가 어떤 식 으로든 폭발하고 지금이 바로 지금이라고 생각했던 것처럼 제게는 분명해졌습니다.지금이 분명합니다.여기 가스에 음식을 넣어야합니다.우리는 모두 참여해야합니다. 우리는 초기 노력에서 Responsible AI에 초점을 맞춘 큰 헌신적 인 노력을 실제로 구축해야합니다.

호아킨 (11:27) :

그리고 수학을 좋아하는 사람, 공학을 좋아하는 사람, 프로세스와 플랫폼을 좋아하고 사람들에게 도구를 제공하는 사람으로서 저의 배경을 가지고 있습니다.개월 [누화 00:11:42].

Jeremie (11:43) :

그렇게 어려울 수는 없습니다.

호아킨 (11:44) :

예, 그렇게 어려울 수는 없습니다.얼마나 어려울 수 있습니까?여기를 살펴 보겠습니다.그래서 저는 일부 작업과 일부 정의를 살펴 보았습니다.그리고 물론 즉시 명확 해졌습니다.이것은 공정성과 그들의 정치에 대한 21 가지 정의에 대한 아름다운 강연을 제공하는 Arvind Narayanan의 작품입니다.그가 2018 년에 그것에 대해했던 연설이 있습니다. 당시에는 FAT Star 컨퍼런스라고 불 렸습니다.이제 FACT라고합니다.[들리지 않음 00:12:11] 커뮤니티는 [NIPS 00:12:14] 및 FAT와 같은 끔찍한 이름을 만드는 데 능숙했습니다.운 좋게도 이름을 변경했습니다.

제레미 (12:18) :

빨리 움직이고 물건을 부수십시오.

호아킨 (12:19) :

빨리 움직이고 물건을 부수십시오.그래서 저는 괜찮다고 생각했습니다.이 21 개의 정의 중 일부 공정성 정의는 그룹 간의 결과를 균등화하기 위해 노력하고, 일부 공정성 정의는 모든 사람을 동일하게 대하는 데 초점을 맞추고 있습니다. 저는 정말 얼마나 많은 것이 필요한가요?아마도 우리는 몇 가지를 구현할 수있을 것입니다.저는 드롭 다운 상자처럼 상상합니다. [누화 00:12:44] 수행자로 어떤 것을 선택해야합니까?저는 우리가 하위 그룹, 모델의 정확성, 보정 곡선,이 모든 것들에 의해 분류 된 데이터 구성의 아름다운 시각화를 가질 수 있다고 생각했습니다.좋아요, 우리는 이것을 얻었습니다. 우리는이 일을 몇 달 안에 끝낼 수 있습니다.

호아킨 (12:59) :

그런 다음 AI 공정성이 주로 AI 문제가 아니며 수학에는 답이 없다는 것이 엄청난 수의 벽돌처럼 저를 때렸습니다.그리고 사용해야하는 공정성의 정의는 상황에 따라 매우 달라집니다.도덕 철학과 정치 철학에서 온 사람들이 참여하는 다 분야 팀을 구성해야합니다.그것은 실제로 매우 중요합니다.그리고 아마도 가장 중요한 것은 공정성이 모델의 속성이 아니라는 것입니다.상태 상자가 아닙니다.실제로는 과정입니다.공정성은 과정입니다.사실 저는 카메라를 조금 기울여 보여 드릴 것입니다. 저는 의도적으로 우리 팀을 위해 제작 한이 티셔츠를 입고 있습니다. 공정성은 과정입니다.

Jeremie (13:45) :

아, 아주 좋아.

호아킨 (13:46) :

그래서 이건 저희가 팀을 위해 만든 티셔츠 세트입니다. 제가 항상 이것을 반복했기 때문입니다.그래서 어느 날 우리 팀의 비서가 모두를위한이 티셔츠 더미를 내놓고 말 했어요. “좋아요, 여러분은 항상 공정성이 하나의 과정이라고 계속해서 말하고 있습니다 [들리지 않음 00:14:03].”어쨌든 우리는 자부심을 가지고 착용합니다.당신은 결코 끝나지 않았습니다.엔지니어가 생각하기 조금 어려울 수있는 점은 이것이 아니라는 것입니다. 아, 여기에이 마이크를 만들어서 끝났습니다.나는 그것을 테스트했고 작동합니다.그렇지 않습니다.

호아킨 (14:20) :

시간을 거슬러 올라가면 인류는 아리스토텔레스 이후로 공정성에 대해 논의 해 왔습니다.우리는 여전히 논의 중이며 동의하지 않습니다.그리고 그것은 우리가 다른 이념을 가지고 있기 때문에 정치가됩니다.따라서 위험 평가, 결정 사항 표시, 결정 방법 등을 문서화하는 여러 분야의 프로세스를 구축해야합니다.그리고 그것은 공정성을위한 것입니다.분명히 Responsible AI에는 다룰 다른 많은 차원도 있습니다.

Jeremie (14:54) :

부분적으로는 공정성이라는 개념을 프로세스로서 좋아합니다. 왜냐하면 Goodhart의 법칙이라는 잘 알려진 원칙이 있기 때문입니다.측정 항목을 정의하자마자이 숫자 하나를 최적화 할 것이라고 말하면 갑자기 사람들이 그 주변의 방법을 찾고 해킹을 찾고 치트를 찾습니다.나는 오늘 주식 시장에서 그것을보고있을 것입니다.

Jeremie (15:12) :

일반적으로 주식 시장이 오르면 국민의 삶의 질이 올라간 것이 일반적으로 1950 년으로 거슬러 올라갑니다.하지만 이제는 사람들이 게임과 정치를 시작하고이를 중심으로 최적화하면서 분리되는 현상을 목격하고 있습니다.그래서, 이것은 마치 … 제 말은, 전략의이 부분이 단일 손실 함수가없고 개선 할 단일 최적화 함수가 없다는 사실을 인식하고 대신 프로세스에 집중 해 보겠습니다.

호아킨 (15:35) :

물론.이에 대해하고 싶은 말이 몇 가지 있습니다.우선, 모든 단일 메트릭은 불완전합니다.구체적으로 공정성에 대해 작업하지 않더라도 메트릭 목표를 설정하는 순간, 특히 많은 기술 회사가 매우 성공한 이유 중 하나는 빠르게 반복 할 수 있다고 생각하기 때문이라고 생각합니다., 우리는 메트릭 기반이 될 수 있으며 이러한 메트릭을 이동할 수 있습니다.

호아킨 (16:11) :

그러나 동시에 그것은 잠재적으로 우리의 아킬레스 건이 될 수 있으며 실제로 당신을 곤경에 빠뜨릴 수 있습니다.따라서 매우 강력한 비판적 사고를 개발하는 것이 필수적입니다.그리고 우리가 카운터 측정 항목이라고 부르는 것을 개발하는 것이 중요합니다. 예를 들어이 측정 항목을 개선 할 때 더 나빠져서는 안되는 위치에서 작동하는 다른 측정 항목과 같습니다.하지만 그것조차-

Jeremie (16:36) :

[누화 00:16:36] 실제로 그 중 하나의 예?그것은 매혹적인 아이디어처럼 들립니다.

호아킨 (16:39) :

간단한 아이디어는 음성 인식 시스템의 정확도를 향상 시키려고 노력하고 있으며 원하는대로 단어 오류율 또는 이와 유사한 방식으로 측정한다고 가정 해보십시오.따라서 공정성에 관심이있는 경우 만들 수있는 카운터 측정 항목 중 하나는 실제로 분석 할 수 있다는 것입니다. 예를 들어 미국에서는 악센트가 국가마다 다르기 때문에 일부 지리적 그룹별로 측정 할 수 있습니다.그리고 카운터 메트릭은 평균이 항상 당신에게 도달하기 때문에 어떤 그룹의 성능을 저하시킬 수 없다는 것입니다.

Jeremie (17:21) :

네.

호아킨 (17:21) :

당신은 다수 집단을 위해 일을 두 배 더 좋게 만들 수 있고, 다른 집단을 위해 그들을 더 나쁘게 만들 수 있으며, 심지어 깨닫지 못할 수도 있습니다.따라서 이는 매우 공정성 중심의 측정 항목입니다.하지만 경험의 여러 측면을 최적화하려는 다른 많은 시나리오를 상상할 수 있으며 더 악화시키고 싶지 않은 특정 사항이 있습니다.

Jeremie (17:51) :

이에 대해 처음으로 언급 한 의견 중 하나는 공정성이거나 공정성에 대한 정의는 데이터 과학자에게 어려운 일이 아니라고 생각합니다.

호아킨 (17:58) :

권리.

Jeremie (17:58) :

그것은 그들이 걱정할 필요가없는 것입니다.데이터 과학자는 공공 정책에서 철학 학위와 학위를받을 시간이 없습니다.그래서 궁극적으로 누군가의 직업이 될 것입니다.그리고 그것이 정책 입안자이든 인문학 배경이 더 많은 사람이든, 마음에 떠오르는 한 가지 질문은 이러한 지표에 대한 대화의 성격이 기술적으로 매우 빠르게 진행된다는 것입니다.내리는 결정의 본질을 전달할 수 있다는 것은 그 자체로 어려운 일입니다.이러한 문제가 많이 발생하고 있으며 그 문제를 해결하기 위해 사용하는 전략이 있습니까?

호아킨 (18:32) :

도전입니다.우리가 성공한 것 중 하나는 회사 전체의 공정성에 대해 이야기 할 수있는 일관된 어휘를 정의하고이를 매우 구체적이고 예를 통해 설명하기 위해 복잡성이 증가하는 일관된 질문 세트를 정의하는 것입니다.공정성에 대한 가장 기본적인 정의 중 하나는 질문하는 것입니다. 내 제품이 모든 그룹에서 잘 작동합니까?그룹을 정의하는 문제는 물론 상황에 따라 매우 다릅니다.

호아킨 (19:18) :

왼쪽에는 Facebook Portal 카메라가 있고 사람을 추적 할 수있는 스마트 AI가 있습니다.내가 스페인에있는 부모님이나 독일의 부모님과 화상 회의를하고 있다면 기본적으로 우리의 주말이 우리 아이들과 어떻게 진행되는지, 아니면 그들과 화상 회의를 하는지를 상상할 수 있습니다.실제로 Skype 또는 FaceTime에 사용하는 휴대폰이 있거나 사용하는 소프트웨어를 사용하는 경우 프레임을 중앙에 유지하려고하는 것이 정말 짜증나 기 때문입니다.

호아킨 (19:56) :

포털에서는 마법과도 같습니다.하지만 사람을 추적하는 AI는 축소, 자르기, 중앙 등 모든 것을 축소 할 수있는 두 사람이 있는지 확인합니다. 피부 톤 전체에서 똑같이 잘 작동 할 것이라고 당연하게 생각할 수 없습니다.또는 성별 또는 연령.그런 맥락에서 최소한의 서비스 품질을 어떻게 정의 할 수 있습니까?그리고 최소한의 서비스 품질은 누군가가 잘 리거나 무언가가 잘리는 실패율이 특정 작은 비율의 시간이나 프레임 또는 세션 수보다 작아야한다는 것입니다.

호아킨 (20:34) :

이는 합리적인 개념입니다.이 아이디어는 최소 서비스 품질입니다.나는 내 제품이 모두에게 충분히 잘 작동하기를 바랍니다.물론 내 제품의 맥락에서 핵심 질문 중 하나는 무엇을 구축하려고하는지 고려할 때 고려해야 할 가장 민감한 그룹은 누구입니까?나중에 원하신다면 토픽 항아리에 무언가를 넣겠습니다. 선거 간섭에 대해 이야기 할 수 있습니다.그리고 우리는 그러한 맥락에서 AI가 어떻게 도울 수 있는지에 대해 이야기 할 수 있습니다.그리고 우리는 인도 선거에 대해 이야기 할 수 있습니다.그런 다음 그 맥락에서 어떤 그룹이 관련이 있는지 추론 할 수 있습니다.

호아킨 (21:12) :

그러나 포털 예제로 돌아 가면 공정성에 대한 가장 기본적인 질문은 메트릭을 분리 할 수 있습니까?입니다.팀은 일반적으로 기준을 시작했습니다.따라서 데이터 과학, ML 팀은 “이 모델이 충분히 좋은가요?”라고 말할 것입니다.음, 질문은 그룹별로 분리 된 롤업 측정 항목을 사용하는 대신,이 경우 피부톤 일 수 있습니다. 연령 및 성별에 사용할 수있는 척도가 많고 각 버킷에 대해성능이 가장 나쁜 버킷에서 그게 유일한 인구 였다고 상상해보세요. 여전히 출시 하시겠습니까?

호아킨 (21:50) :

대답이 ‘아니요’인 경우에는 앉아서 알아 내야 할 것입니다. 좋아요. 내가 아무도 떠나지 않도록하려면 어떻게해야하나요?그런 다음 인도 선거로 이어지는 한 가지 질문과 공정성에 대한 정의가 본질적으로 더 비교됩니다.어떤면에서 최소한의 서비스 품질은 기준과 비교되지만 반드시 걱정할 필요는 없습니다. 오, 다른 그룹보다 그룹에 대해 여전히 조금 더 효과적 일 수 있습니다.모두에게 충분히 잘 작동한다면 괜찮습니다.그리고 저는 굿 하트의 법칙이라는 주제에 또 다른 주제를 넣을 것입니다.이 법칙은 여러분이 어떻게 최소한의 서비스 품질을 게임하거나 망칠 수 있는지에 대한 것입니다.

호아킨 (22:30) :

그러나 다음 단계는 대우의 평등 또는 평등입니다.당신은 말할 수 있습니다. 좋아요, 저는 실제로 성능의 차이에 관심이 있습니다.그리고 인도 선거의 예는 이와 같습니다.작년 4 월, 5 월경, 제가 정확하게 기억한다면 인류 역사상 가장 큰 선거를 치렀습니다.10 억 명의 등록 유권자에 가까웠 던 것 같습니다.그보다 조금 적지 만 방대합니다.그리고 잘못된 정보와 조작 시도에 대한 우려가 많은 시대에.

호아킨 (23:08) :

AI없이이 문제를 해결하는 방법은 표준, 커뮤니티 가이드 라인, 콘텐츠 정책을 제공하고 콘텐츠가이를 위반하지 않는지 확인하는 사람을 두는 것입니다.만약 그렇다면, 당신은 그것들을 내려 놓습니다.하지만 문제는 이번 선거의 규모와 우리가 보유한 규모에 따라이를 수행하기 위해 고용 할 수있는 사람이 많지 않습니다.그러니 여러분이해야 할 일은 작업의 우선 순위를 정하는 것입니다. 왜냐하면 제가 기타를 연주하거나 고양이 나 개가 등장하는 것에 대한 제 게시물은 검토하는 데 시간을 낭비해서는 안되기 때문입니다.

호아킨 (23:47) :

하지만 정치인이 논의하는 문제가 있거나 정치인이 아니더라도 조직에서 시민 콘텐츠, 사회적 또는 정치적 문제를 논의하는 콘텐츠에 대해 이야기하고 있다면 우선 순위를 지정해야합니다.그래서 우리는 그렇게하는 AI를 만들었습니다.우리는 이것을 시민 분류기라고 부릅니다.따라서 콘텐츠를 살펴보고 본질적으로 시민적일 가능성이있는 콘텐츠를 식별 한 다음 사람이 검토 할 수 있도록 우선 순위를 지정합니다.

호아킨 (24:20) :

공정성 문제는 무엇입니까?음, 공정성 문제는 인도에서 20 개가 넘는 공식 언어가 있고 문화적 특성이 매우 다른 지역이 많이 있다는 것입니다.그래서 실제로 인구를 지역과 언어로 나누면 그것이 종교 나 카스트와 같은 것들과 실제로 어떻게 연관되는지 볼 수 있습니다.그리고 다른 지역의 사람들과 관련된 사회 문제는 다릅니다.하지만 이제는 인적 자원을 배치하여 콘텐츠를 검토하는 위치를 우선으로하는 AI가 있습니다.AI가 몇 가지 언어에서만 잘 작동하고 다른 언어에서는 작동하지 않으면 어떻게 되나요?

호아킨 (25:01) :

따라서 언어 비유를 취하면 언어에 대한 위험을 과대 평가하면 어떻게 될까요?즉, 우선 순위를 정하고… 해당 언어로 게시물을 검토하기 위해 더 많은 인력을 투입 할 것입니다.그리고 다른 언어에 대해 어떤 것이 본질적으로 시민적일 가능성을 과소 평가하거나 과소 평가한다면 우리는 그곳에 충분한 인적 자원을 할당하지 않습니다.

호아킨 (25:22) :

그리고 나서 우리는 최소한의 서비스 품질에 그치지 않기로 결정했습니다. 이것이 우리가 진정으로 동등한 대우를 원하는 경우라고 생각했습니다.그리고 여기에있는 것은 0과 1 사이의 숫자를 출력하는 이진 분류기입니다. 즉,이 콘텐츠가 시민적일 확률이 얼마나되는지, 우리가 말한 것은 잘됩니다. 우리는 이러한 예측이 모든 단일 항목에 대해 잘 보정되기를 원합니다.언어와 모든 단일 지역.

호아킨 (25:47) :

다시 말하지만, 공정성이라는 개념은 자원 할당의 공정성에 관한 것이기 때문에 더 높은 기준을 설정했습니다.그리고 그림을 완성하기 위해 우리가 내부적으로 사용하고있는 세 번째 공통적 인 정의와 질문 세트는 형평성에 관한 것이며 모든 사람과 모든 것을 동일하게 대해야하는 것이 아니라 시스템의 성능이모두에게 특정 기준을 넘어 섰습니까?그러면 질문은 예를 들어 제품 결과에 특별한주의를 기울여야 할 사람들이 있는가?그리고 이것은 우리가 고려해야 할 역사적 맥락이 있기 때문일 수 있습니다.

호아킨 (26:42) :

그리고 미국에서 인종 정의 인식의 여파로 2020 년에 본 한 가지 예는 예를 들어 Facebook에서 흑인 소유 기업의 비즈니스 성과에 초점을 맞추 었습니다.그래서 우리는 Facebook 플랫폼이 이미 존재했던 상황을 개선하는 데 도움이 될 기회가 있다고 느꼈기 때문에 흑인 소유 기업에 가시성을 제공하는 데 도움이되는 제품 노력을 구축했습니다.

호아킨 (27:17) :

공정성에 대해 생각할 때 자주 묻는 질문은 책임 중 하나입니다.좋아요, 사람들은 뭐라고 말할지 모르지만 사회는 편견이 있고 여기에 저는 중립적 인 기술을 만들었습니다. 저는이 게임에 피부가 없습니다.그리고 우리가 말하는 것은 그렇게 작동하지 않는다는 것입니다.여러분의 기술은 이러한 편견을 반영 할 수 있고,이를 영속화 할 수 있으며,이를 합법화하거나 디버그 또는 이해하기 매우 어렵게 만드는 블랙 박스 안에 캡슐화 할 수 있습니다.그리고 반대로 기술은 모두에게 더 나은 결과를 제공 할 수 있습니다.하지만 때때로 우리는 스스로에게 질문해야합니다. 우선 순위를 정할 그룹이 있습니까?그것은 많은 단어였습니다.

Jeremie (28:03) :

아니요. Facebook에서는 Twitter에서 공정성이 어떻게 관리되고 있는지에 대한 질문에 대답하기가 어렵다고 생각합니다 [들리지 않음 00:28:10].

호아킨 (28:09) :

권리.

제레미 (28:10) :

하지만 저는 여러분이 설명하시는 다양한 종류의 렌즈와 공정성에 대한 다양한 접근 방식이 정말 흥미 롭다고 생각합니다.프로세스 관점에서 제가 정말 궁금한 점 중 하나는 적용 할 공정성 기준에 대한 결정이 조직 내 어디에서 비롯된 것입니까?그리고 그 결정을 내리는 과정이 현재 충분히 공식화되고 구조화되어 있다고 생각하십니까?분명히 반복이있을 것이지만 그 프로세스가 어떻게 구성되어야하는지에 대해 좋은 감각이 있다고 생각하십니까?

호아킨 (28:42) :

네.그래서 우리는 프로세스를 구축하고 있습니다.그러나 우리에게 매우 분명한 것은 그것이 허브 앤 스포크 모델이라는 것입니다.따라서 우리는 여러 분야의 중앙 집중식 책임있는 AI 팀을 보유하고 있습니다.앞서 언급했듯이 AI 과학자와 엔지니어뿐만 아니라 도덕적, 정치적 철학자와 사회 과학자도 있습니다.그리고 그 팀이하는 일은 이러한 질문들 중 일부를 묻는 윤리적 틀을 제공하는 것부터 전체 레이어 케이크입니다. 그래서 그것이 질적 부분이 될 것입니다. 만약 당신이 원한다면 양적 부분으로 더 가십시오.우리는 어떻게…

호아킨 (29:26) :

이제 평등과 최소 서비스 품질에 대해 이야기했습니다.평등을 위해 이진 분류 자에 대해 이야기했습니다.그것이 실제로 수학에서 무엇을 의미합니까?나는 무엇을 봅니까?그룹 간의 오 탐률을 보나요?답변, 아닙니다. 문제가 있기 때문에 반드시 그런 것은 아닙니다.하지만 당신은 무엇을합니까?

호아킨 (29:48) :

그리고 그 아래에는 플랫폼과 도구 통합이 더 많은 또 다른 계층이 있습니다.다시 말하지만, Applied ML에서 수행 한 모든 작업을 활용하여 알고리즘의 예측을 그룹 등으로 분류 할 수 있도록 정말 쉽고 정말 친근하게 만들 수 있을까요?그래서, 당신은 실제로 정말 중요한 근무 시간과 같은 것들을 포함하여 전체 레이어 케이크를 가지고 있습니다.중앙 집중식입니다.

호아킨 (30:15) :

그리고 보시다시피 모든 제품 팀은 중앙 집중식 팀과 매우 긴밀하게 협력 할 자체 내장 전문가 그룹을 구축하고 있습니다.그리고 이렇게해야하는 이유는 중앙 집중식 팀이 일관된 관행, 일관된 용어 및 정의를 갖도록해야하지만, 이전에 결정을 내릴 필요가 있기 때문입니다.

호아킨 (30:45) :

따라서 중앙 집중식 팀이 상황에 따라 매우 많은 결정을 내리는 것은 비실용적이고 비효율적입니다.그리고 가장 큰 것은 우리가 말했기 때문입니다. 그것은 과정입니다. 당신은 한 번 결정을 내리지 않고 끝났습니다.당신은 그것을 유지합니다.권리?

Jeremie (31:04) :

네.

호아킨 (31:06) :

참고로 나는 Shalini Kantayya의 영화 Coded Bias를 봤습니다.Joy Buolamwini, Timnit Gebru, Cathy O’Neil 및 Responsible AI에 대한 다른 많은 뛰어난 연구원들이 등장합니다.그리고 사람들이 살고 있다고 인용하고 그 사람을 오해하는 것은 정말 위험하다고 생각합니다.

호아킨 (31:32) :

그들 중 하나는 그 추상화 수준을 유지하려고합니다. 누가 말했는지 기억이 나지 않기 때문입니다. 그들 중 하나는“공정성과 같은 책임감있는 AI 관행 중 대부분은 위생과 같습니다.매일 양치질을해야하는 것 같아요.”그래서 제가 생각하는 방식입니다.제품의 맥락에서해야합니다.따라서 점점 더 많은 제품 팀이 자체적으로 노력을 기울이고 있으며 그들과 매우 긴밀하게 협력하고 있습니다.

Jeremie (32:04) :

그리고 당신은 어떻게 결정합니까 … 그래서, 이것의 거의 경제적 측면이 제가 매료되었습니다.저는 OpenAI의 AI 정책 전문가 중 한 명인 Amanda Askell을 본 것 같습니다. 그녀는 알고리즘이 나쁘다는 이유를 찾을 수 있다면 알고리즘이 그럴 필요가 없다는 주제가 현재 AI 윤리 커뮤니티에 있다는 아이디어에 대해 트윗했습니다.배포.시대 정신 주의자들은 사람들이“오, 음,이 알고리즘은 이런 한계에서 차별을한다”고 말할 정도의 분위기가 있습니다.

Jeremie (32:33) :

물론 우리는 모든 알고리즘이 어떤 식 으로든 필연적으로 차별 할 것이라는 것을 알고 있습니다.그래서 우리가 말하는 일종의 문턱이 있어야합니다. 좋아요, 이것은 너무 많고 이것으로는 충분하지 않습니다.그 관점에서 경제적 절충에 대해 어떻게 생각하십니까?내 말은, 소가 집에 올 때까지 알고리즘을 편향하지 않으려 고 할 수 있지만 어느 시점에서 뭔가 시작되어야합니다.그래서 네, 그 트레이드 오프에 대해 어떻게 생각하십니까?

호아킨 (32:59) :

그 질문에 대한 순전히 정량적 인 답을 내놓는 것은 매우 어렵다고 생각합니다.다시 말하지만, 수학 및 공학 전문가로서 AI를 사용하여 증오심 표현을 줄이려면 오 탐지 비용이 40 달러와 3 센트라고 말하는 기능 비용을 절감 할 수 있기를 바랍니다.그래서 그것은 매우 어렵습니다.나는 그것이 닿는 것은 몇 가지에 있다고 생각합니다.저는 투명성을 생각하고 거버넌스에 영향을 미칩니다.

호아킨 (33:40) :

그리고 저는 일이 진행될 것이라고 생각합니다. AI를 제품으로 만들 때 위험 편익 분석에 대해 매우 투명한 제품에 대한 기대가있을 것이라고 생각합니다. 요즘 제가 사용하는 문구가 있습니다.아마도 누군가로부터 그것을 훔 쳤을 것입니다. 저는 잘 모르겠습니다.이 AI 최소화 아이디어,이 아이디어는 … 사람들이 데이터 최소화에 대해 이야기하는 것과 같은 방식입니다.그래서 AI 최소화.내 본능이 아니라 멋져서 AI를 사용 하자는 것 같아야합니다. AI 없이도 할 수 있을까요?그리고 대답이 아마도 그럴 수도 있지만 인공 지능을 넣으면 모든 사람에게 엄청난 가치를 더 해줍니다. 그것은 마치 정당화되고 가치가 있습니다.

호아킨 (34:33) :

그 다음에는 모든 위험 목록 인이면이 있습니다.그리고 위험 중 하나는 차별 일 수도 있고 불공정의 다른 정의 일 수도 있습니다.그리고 저는 이러한 트레이드 오프에 대해 투명하게 생각하고 피드백을 받고 수용 가능한 것을 조정하고 볼 수있는 폐쇄 루프 메커니즘을 이상적으로 좋아하는 것으로 생각합니다. 이것이 우리가하게 될 피할 수없는 미래라고 생각합니다.

호아킨 (35:06) :

제가 많이 사용하는 예는 인공 지능의 예는 아니지만 다시 말씀 드리지만 이러한 문제 중 상당수는 익숙한 인공 지능 문제가 아닙니다.우리는 콘텐츠 중재와 모든 사람에게 목소리를내는 것과 언론의 자유를 허용하는 것 사이의 어려운 절충에 대해 생각하지만 다른 한편으로는 유해한 콘텐츠로부터 커뮤니티를 보호합니다.그리고 분명히 해로운 잘못된 정보가 있습니다.우리는 우리 스스로 또는 우리 스스로이 일을 할 수 없거나해서는 안된다는 확고한 결론에 도달했습니다.그리고 제가 우리에게 말할 때 저는 당연히 페이스 북 직원으로서 말하고 있습니다.그러나 나는 이것이 일반적으로 기술 전반에 걸쳐 사실이라고 생각합니다.

호아킨 (35:55) :

우리는이 외부 감독위원회를 실험하고 있습니다.들어 보셨을 것입니다.전문가 그룹입니다.조례 및 운영 방식을 마련하기 위해 팀을 구성하는 데 많은 작업이 필요합니다.하지만 잠시 정신에 집중 해 보겠습니다.그 정신은 까다로운 결정이있을 것이라는 것입니다.완벽한 콘텐츠 정책은 없습니다.따라서 인간이 외부 조사와 전문 지식을 포함하는 거버넌스를 갖도록 개발하는 것은 필수적입니다.저는 결국 참여하는 것이 투명성, 책임 성, 거버넌스 메커니즘의 상호 작용이 될 것이라고 생각합니다.권리?

Jeremie (36:45) :

네.

호아킨 (36:46) :

축소하고 10 년 후 AI가 매우 널리 퍼지고 결과적으로 매우 중요하다고 생각한다면 참여형 거버넌스에 대한 하나의 큰 질문이 될 것입니다.

Jeremie (36:58) :

네.

호아킨 (36:59) :

친척이나 애완 동물을 수의사에게 데려가는 인공 지능이 어떤 종류의자가 운전처럼 꽤 경이적 일 것입니다.

제레미 (37:11) :

그리고 그 자체가 마치 페이스 북이하는 모든 과정에 이런 종류의 에너지 세를 부과하는 것과 거의 같습니다. 페이스 북이이 일을하는 것이 대단하다고 생각합니다.Facebook에 책임감있는 AI 부서가 있다는 것이 대단하다고 생각합니다.그리고 어느 정도는 그것이 오늘날 대규모로만 일어날 수 있다는 것이 완벽하게 합리적입니다. Facebook, Google 및 OpenAI와 같은 회사가 실제로 거대한 언어 모델과 거대한 컴퓨터 비전 모델을 구축 할 수있는 규모이기 때문입니다.그리고 이로 인해…이 작업에 더 많은 시간이 있었으면 좋겠지 만 AI에서의 파트너십에 대해 질문해야합니다.

호아킨 (37:43) :

물론입니다.

Jeremie (37:43) :

이 등식에서 매우 중요한 부분이기 때문입니다.제 개인적인 관심사 중 하나는 실제로 여기에서 이것에 대해 조금 이야기했지만 안전, 개인 정보 보호, 공정성, 윤리,이 모든 것들이 실제로 존재한다는 생각은 사실상 세금이라는 형태를 취합니다.경쟁적인 조직에서.구글은 페이스 북과 경쟁해야합니다.페이스 북은 다른 사람들과 경쟁해야합니다.시장입니다.

Jeremie (38:06) :

그리고 그것은 좋은 것입니다. 그러나 공정성에 대한 세금이있는 한, 안전에 대한 세금이있는 한, 그것은 모든 사람들이 이러한 방향으로 최소한의 투자를 시도하는 바닥까지 일종의 경쟁을 할 인센티브가 있음을 의미합니다.어느 정도.그리고 적어도 제가 항상 본 것처럼 Partnership on AI와 같은 그룹은 상호 작용을 중재하고 최소 기준을 설정하는 측면에서 흥미로운 역할을합니다.우선 그 해석에 동의하십니까?둘째, 기술이 발전함에 따라 AI에 대한 파트너십을 더 큰 역할로 어떻게 생각하십니까?이것이 큰 일이라는 것을 알고 있기 때문입니다.하지만 [누화 00:38:40]에 대해 폭 넓은 생각을하고자합니다.

호아킨 (38:39) :

아니요. AI에 대한 파트너십을 도입하게되어 기쁩니다.저는 이사회에 속해 있으며 지난 몇 년 동안 매우 관여 해 왔으며 전 세계가 필요로하는 조직이라고 생각합니다.그러나 나는 레이스 가설의 논리를 이해하는 데 도움을 주시면 감사하겠습니다.그리고 아마도 우리는 당신이 원하는 책임의 차원을 선택함으로써 그것을 매우 구체적으로 만들 수 있습니다.조금 힘들어요.나는 당신이 의미하는 바를 정말로 이해하고 있는지 확인하고 싶습니다.

Jeremie (39:14) :

예, 예, 물론입니다.그래서 저는 상상하고 있습니다 … 사실 저는 AI 안전 커뮤니티에 대한 조정에서 한 예를 들어 보겠습니다.그래서, 하나의 공통된 것은 가설입니다. 필자는 이것을 반드시 받아 들일 필요는 없습니다. 그러나 구체적으로 말하자면, 그것이 사실이라고 가정합시다. 언어 모델은 임의적으로 잘 확장 될 수 있고 효과적으로 오라클 또는 그와 유사한 초강력 모델과 같은 것으로 이어질 수 있습니다.그.따라서 그들은 본질적으로 초대형 언어 모델로 할 수있는 일의 양을 제한하지 않습니다.

Jeremie (39:43) :

그리고 안전이 우려되는 한, 플롯하고 계획을 세울 수있는 독단적으로 강력한 언어 모델을 원하지 않을 수도 있습니다.”Hey, Joaquin에서 $ 80,000처럼 사기를 치려면 어떻게해야합니까?”라고 말할 수 있습니다.그리고 언어 모델은 “오, 방법은 다음과 같습니다.”입니다.그러나 OpenAI와 같은 회사는 DeepMind와 같은 회사 또는 가능한 한 빨리 확장하기 위해 다른 회사와 경쟁하고 있습니다.어느 정도의 능력을 먼저 달성하는 사람은 6 개월이나 그 어떤 시간이라도 결정적인 이점이 있다는 것입니다.

제레미 (40:16) :

이에 대한 유사점, 공정성, 편견 등이 있습니다.하지만 안전에 한계 달러를 투자하거나 투자 할 수있는 회사 경쟁에 참여할 때마다 손실되는 가치가 항상 있습니다.능력의 한계 달러.그리고 그 절충안은… 인공 지능에 대한 파트너십이 최소한 모든 사람이 준수 할 것이라고 생각하는 표준을 설정하는 조직 간의 중재에 어떤 역할을 할 수 있는지 궁금합니다.

호아킨 (40:44) :

네.감사합니다.질문을 이해합니다.이 질문은 환경 지속 가능성에 대해 조금 생각하게합니다. 기업 간에는 물론 국가 간에도 여러 가지면에서 동일한 경쟁을 할 수 있습니다.하나의 행성이있는 것과 같습니다.누가 CO2 비용 절감에 전념할까요?오, 음, 잠깐만 있으면 곧 돌아 올게요.

제레미 (41:10) :

이 나무 바로 뒤에.

호아킨 (41:13) :

바로 그거죠.저는 AI에 대한 파트너십이 여러 측면에서 핵심적인 역할을한다고 생각합니다.첫째, 포럼, 학계, 시민권 단체, 시민 사회, 기타 비영리 단체, 중소기업 및 대기업을 생각할 수있는 모든 유형의 조직을한데 모은 매우 독특한 포럼입니다.그리고 AI 파트너쉽에 관한 이러한 조직 중 일부는 다가오는 규제를 적극적으로 로비하고 형성하고 알리게 될 것입니다.그래서 저는 이미 대기업이 참여하고 길을 이끌어야한다는 압력이 이미 약간 있다고 생각합니다. 그렇게하지 않으면 모두에게 나쁜 규제를 처리해야 할 수도 있기 때문입니다.그래서 저는 그것이 한 각도 인 것 같습니다.

호아킨 (42:16) :

다른 각도는 효율성입니다.당신이 설명 해주신 일 중 일부는 저의 큰 언어 모델이 인간의 가치와 조화를 이루고 악이 아닌지 확인하는 데 투자 할 수있는 그 돈 중 일부는 대규모의 지원을받는 조직이 있다면ABOUT ML과 같은 프로젝트는 데이터 세트 및 모델에 대한 문서화 관행을 기반으로 구축 된 제가 좋아하는 프로젝트입니다. 데이터 시트, 모델 카드 및 사물에 대한 데이터 시트와 같은 아이디어의 조합입니다.그렇게, 이것들은 매우 강력합니다.

호아킨 (43:04) :

그리고 우리 페이스 북은 확실히 엄청난 관심을 기울이고 그것을 실험하고 있습니다.그리고 저는 우리가 A, 비교적 기성품이지만 아주 [누화 00:43:16] 무언가를 사용할 수있어서 기쁩니다. 우리가 직접 만들 필요가없고 추가 점수를 얻기 위해 요.이는 우리의 이익만을 나타내는 것이 아니라 AI 기반의 파트너십과 같은 조직에서 구축 한 검증과 신뢰성을 얻습니다.그리고 그것은 일반적인 패턴이 될 것이라고 생각합니다.

호아킨 (43:33) :

A는 모든 사람이있는 다중 이해 관계자 조직을 통해 얻을 수있는 360도 뷰입니다.둘째, 자신이하고있는 일을 실제로 알고있는 사람들이 제공하는 모범 사례와 권장 사항을 제공하는 효율성과 편리함, 그리고 이것이 생성되는 동안 모든 사람이보고 있었다는 사실을 알고 있습니다.그리고 세 번째는 페이스 북의 윤리적 원칙과는 다른 것을 사용함으로써 얻을 수있는 정당성과 검증입니다.권리?

Jeremie (44:06) :

네.

호아킨 (44:06) :

제 말은, 사람들이 눈살을 찌푸리고 사람들이 “오, 제 말은 거기에 어떤 관심사가 표현되어 있는가?”AI의 파트너십이 아닌 Facebook 만 있습니다.

Jeremie (44:17) :

네.내 말은, 앞으로 더 많이 볼 수 있기를 바라는 조직 중 하나입니다.그리고 그것은 그 조직의 초기 커널이 계속 꽃을 피우고있는 것 같습니다. 왜냐하면 여러분이 말했듯이 우리는 매우 다양한 수준에서이 공간에 대한 일종의 다 당파 감독이 필요하기 때문입니다.그리고 이니셔티브가 구체화되는 것을 보는 것이 좋습니다.호아킨, 시간 내 주셔서 감사합니다.사실, 특히 트위터와 같은 콘텐츠를 공유하고 싶은 곳이 있습니까? 아니면 사람들이 당신의 작업에 대해 더 많이 알고 싶어 할 때 사람들을 가리키고 싶은 개인 웹 사이트가 있습니까?

호아킨 (44:49) :

오, 고백이 있습니다.그래서 저는 늦은 트위터 사용자입니다.

Jeremie (44:58) :

오, 아마 정신 건강에 좋을 것입니다.

호아킨 (45:03) :

하지만 이제는 공개 토론에 기여하고 참여하는 것이 [들리지 않음 00:45:14] 일 수 있다는 강한 책임감을 느낍니다.지금 당장 내 트위터를 찾아 보느라 너무 당황 스러울거야.Twitter에서는 @jquinonero입니다.자, J와 제 이름입니다.복잡합니다.스페인에서 왔기 때문에 성이 두 개 있습니다.

Jeremie (45:33) :

우리는 그것을 공유 할 수 있습니다.

호아킨 (45:34) :

우리는 … 정확합니다.그래, 그래.더 많이 참여하겠다고 개인적으로 약속했고, 말씀하신 것처럼 내 정신 건강을 방해하지 않는 방식으로이를 수행하는 방법을 배워야 할 것입니다.

Jeremie (45:48) :

네.나는 그것이 어떤 이유로 가장 큰 도전 중 하나라고 생각합니다. 특히 트위터에서 나는 그 마음을 챙기는 상태를 유지하고 피드에서 길을 잃지 않는 것을 발견했습니다.소년.어쨌든, 우리는 10 년 동안 지옥에 왔습니다.하지만 시간을 내 주셔서 감사합니다.정말 감사하고 대화를 정말 즐겼습니다.

호아킨 (46:05) :

정말 고마워요, Jeremie.여기에 오게되어 정말 기쁩니다.그리고이 팟 캐스트를 해주셔서 감사하고 모든 사람들이 이런 종류의 대화에 참여하게 해주셔서 감사합니다.

Jeremie (46:17) :

천만에요.

Responsible AI at Facebook

APPLE | GOOGLE | SPOTIFY | OTHERS

Responsible AI at Facebook

To select chapters, visit the Youtube video here.

Editor’s note: This episode is part of our podcast series on emerging problems in data science and machine learning, hosted by Jeremie Harris. Apart from hosting the podcast, Jeremie helps run a data science mentorship startup called SharpestMinds. You can listen to the podcast below:

Listen on Apple, Google, Spotify

Facebook routinely deploys recommendation systems and predictive models that affect the lives of billions of people everyday. That kind of reach comes with great responsibility — among other things, the responsibility to develop AI tools that ethical, fair and well characterized.

This isn’t an easy task. Human beings have spent thousands of years arguing about what “fairness” and “ethics” mean, and haven’t come close to a consensus. Which is precisely why the responsible AI community has to involve as many disparate perspectives as possible in determining what policies to explore and recommend — a practice that Facebook’s Responsible AI team has applied itself.

For this episode of the podcast, I’m joined by Joaquin Quiñonero-Candela, the Distinguished Tech Lead for Responsible AI at Facebook. Joaquin has been at the forefront of the AI ethics and fairness movements for years, and has overseen the formation of Facebook’s responsible AI team. As a result, he’s one of relatively few people with hands-on experience making critical AI ethics decisions at scale, and seeing their effects.

Our conversation covered a lot of ground, from philosophical questions about the definition of fairness, to practical challenges that arise when implementing certain ethical AI frameworks. Here were some of my favourite take-homes:

  • Joaquin highlights three different ways of thinking about fairness in the context of AI, and all of them are concerned to some extent with comparing the performance of a given algorithm across different groups of people (genders, races, etc). The first is to consider a system fair if it achieves a minimum level of performance for every group. This would involve setting standards that sound like, “no ethnicity should be misclassified more than 5% of the time.”
    The second approach goes further, requiring equality: the idea that algorithm performance shouldn’t vary too much between groups. Applying this standard would lead to requirements like, “no ethnicity should be misclassified more than 3% more often than any other, on average.”
    The last strategy is to minimize variance in outcomes among groups. The idea here is to apply the prior that “all groups are equally likely to perform behaviour X, so an algorithm that fails to predict that all groups will do X with equal probability must be unfair.”
  • One key question is: who gets to decide which fairness standard applies to a given situation? Joaquin sees this as the core of the fairness issue: we’re not going to resolve all of our profound moral debates anytime soon, so rather than pretend to have moral clarity now, we should focus on creating processes that allow the fairness of specific decisions to be determined on a case-specific basis. For that reason, his team’s mantra is that “Fairness is a process” (and he’s literally got a t-shirt to prove it!)
  • Whatever the fairness process involves, it’s clear that we shouldn’t expect data scientists to handle it all themselves. Data scientists don’t have time to become masters of ethics and philosophy, so it’s necessary to set up structures that abstract away these moral questions before they reach technical teams. To that end, Facebook’s Responsible AI initiative works according to a “hub-and-spokes” model, in which a core team is responsible for setting ethical standards in an open and transparent way, and those standards are then converted by specialized teams into mathematical definitions that can be implemented by data scientists.
  • Joaquin discusses the growing importance of collaboration and coordination among large companies, to ensure that more universal standards of responsible AI development are established, which don’t just reflect the incentives or perspective of a single organization. In that spirit, he now works with the Partnership on AI, an umbrella organization that brings together major players like Facebook, Google, Microsoft and OpenAI to coordinate on questions related to AI ethics best practices, and safe AI development.

You can follow Joaquin on Twitter here, or follow me on Twitter here

Links referenced during the podcast:

Chapters:

  • 0:00 Intro
  • 1:32 Joaquin’s background
  • 8:41 Implementing processes
  • 15:12 No single optimization function
  • 17:51 Definitions of fairness
  • 28:03 How fairness is managed at Facebook and Twitter
  • 32:04 Algorithmic discrimination
  • 37:11 Partnership on AI
  • 44:17 Wrap-up

Please find below the transcript:

Jeremie (00:00):

Hey, everyone. Jeremie here. Welcome back to the podcast. I’m really excited about today’s episode because we’ll be talking about how responsible AI is done at Facebook. Now, Facebook routinely deploys recommender systems and predictive models that affect the lives of literally billions of people every day. And with that kind of reach comes huge responsibility, among other things, the responsibility to develop AI tools that are ethical and fair, as well as well characterized.

Jeremie (00:22):

This really isn’t an easy task. Human beings have spent thousands of years arguing about what fairness and ethics even mean, and we haven’t come to anything close to consensus on these issues. And that is exactly why the Responsible AI community has to involve as many disparate perspectives as possible when they’re determining what policies to explore and recommend. And that’s a practice that Facebook’s responsible AI team has applied itself.

Jeremie (00:44):

Now, for this episode of the podcast, I’m joined by Joaquin Quinoñero-Candela, the distinguished tech lead for Responsible AI at Facebook. Joaquin’s been at the forefront of AI ethics and the AI Fairness Movement for years. And he’s overseen the formation of Facebook’s entire Responsible AI team basically from scratch. So, he’s one of relatively few people with hands-on experience making critical AI ethics decisions at scale and seeing their effects play out.

Jeremie (01:09):

Now, our conversation is going to cover a whole lot of ground from philosophical questions about the definition of fairness itself, to practical challenges that arise when implementing certain AI ethics frameworks. This is a great one. I’m so excited to be able to share this episode with you, and I hope you enjoy it as well. Joaquin, well, thanks so much for joining me for the podcast.

Joaquin (01:26):

Thank you, Jeremie. Thank you for having me. It’s a great pleasure and I absolutely love your podcast.

Jeremie (01:32):

Well, thanks so much. It’s a thrill to have you here. I’m really excited for this conversation. There’s so much that we can discuss, but I think there’s a situational piece that’ll be useful to tee things up. And that’s a short conversation about your background, how you got into this space, how somebody just came in from outside of ML and academic journey and then eventually came to the position that you’re in, which is leading up the Responsible AI initiative at Facebook. How did you get there?

Joaquin (01:56):

We have to have a deal where you can interrupt me whenever you want because once I get talking about my journey, I can go long. I think at a very, very high level, I finished my PhD in machine learning in 2004. At the time, very few people used the word AI in the community that I was in. The NeurIPS community was mostly an ML community. I had a little stint of being an academic. I was a postdoc at the Max Planck Institute in Germany. My first transition was I joined Microsoft Research in Cambridge in the UK in January 2007 as a research scientist.

Joaquin (02:43):

And so what happened there was a very fundamental thing in my career, which is that I came across product teams that were using machine learning. In particular, we started to talk to the team that would become the Bing organization, so Microsoft’s search engine, before it launched. And we started to apply ML to increase the relevance of ads for people. And specifically, we were building models that would predict whether someone would click on an ad if they were to see that ad. That work really got me hooked to the idea that ML was not just something that you did in scientific papers, but it was something that you could actually put in production.

Joaquin (03:24):

So, in 2009, the Bing organization asked me, “Hey, why don’t you leave the comfort of Microsoft Research, that comfortable sort of research environment, and why don’t you become an engineering manager and lead a team within Bing?” So, I did just that. It was probably one of the most stressful and dramatic transitions in my life because I knew nothing about being an engineering leader. I wasn’t used to doing roadmapping, headcount planning, budgeting, being on call, being responsible for key production components. So, it was pretty stressful. But at the same time, it was wonderful because it gave me the view of the other side.

Joaquin (04:04):

And one theme that has been recurring in my whole career and still is now is this idea of technology transfer. The funnel that goes from a whiteboard and some math, some idea, some research, some experiment, all the way to a production system that needs to be maintained and running.

Joaquin (04:22):

And so this transition gave me a first person view into that other world on the other side of research, that other world where sometimes as a researcher, you’d go in and you’d say, “Hey, you all should consider using this cool model I just built,” and then people would go like, “I don’t have time for this. I’m busy.” So, now all of a sudden, I was on the other side. It was a great experience, ended up also helping to build the auction optimization team as well. So, that got me to learn a little bit about mechanism design and economics and auctions.

Joaquin (04:57):

And then I came to Facebook in May 2012. I joined the Ads organization. I started to build out the machine learning team for Ads. And then I think the second big moment in my career happened, which is that, I think the phrase I would tell everyone is it just hit me really hard that wizards don’t scale.

Joaquin (05:16):

So, the challenge we had is we had a few brilliant machine learning researchers at Facebook, but the number of problems we needed to solve just kept increasing. And we were almost gated by our own ability to move fast. People would be building models in their own box, having their own process for shipping them to production, and I felt the whole thing was slow. And the obsession became, how can we accelerate research to production? How can we build the factory?

Joaquin (05:51):

And that was an interesting time because all of a sudden, the difficult decision there was to say, well, rather than rushing to build the most complicated neural network for ranking and recommendations possible, let’s just stick to the technology we have, which is reasonable. We were using boosted decision trees and we were using online linear models and things like that, which are relatively simple. At large-scale, that’s maybe not that simple. But the idea was, can we ship every week? Can we go from taking many weeks from-

Jeremie (06:26):

Wow.

Joaquin (06:26):

Yeah, that was the vision. The vision was ship every week. It became almost like the mantra. Everyone was like, “Ship every week.” And so that led us to build the entire ecosystem for managing the path from research to production. And it did many things. It’s a set of tools that we built across the company. It’s interesting because it was focused on ads only. The idea was that it would be very easy for anyone in ads building any kind of model to predict any kind of event on any kind of surface to actually share code, share ideas, share experimental results.

Joaquin (07:00):

Almost also actually to know who to talk to. Actually, a big thing is to build a community. The vision was for this to be agnostic to the framework you actually express your models in. When TensorFlow and Keras became popular, we supported that of course. We support PyTorch. But if you really want to write stuff from scratch in C++, be our guest. It’s pretty agnostic. It’s all about managing workflows.

Joaquin (07:28):

And what ended up happening is that teams started to ask to adopt what we were building. And fast forward in time, what happened is that the entire company adopted what we built. We started to add specialized services on top for computer vision, for NLP, for speech, for recommendations, machine translation, basically everything. And that led to the creation of a team called Applied ML, which I helped build and led for a few years, which essentially just provided for the entire company and democratized ML and put it into the hands of all product teams.

Joaquin (08:06):

The idea was that since wizards don’t scale, you don’t need that many wizards, that the wizards will be the creators of fundamental innovation, but then you can have an ecosystem of hundreds, if not thousands of engineers across a company who can very easily leverage and build on those things. So, I did that until three years ago essentially. And I’ll take a breath here in case you want to ask me any question about this part before we transition into, I guess, what would become then the third big moment, which is the transition to Responsible AI.

Jeremie (08:41):

One of the big take-homes for me in this, especially with the second phase of your career, is you’re talking about implementing processes, like getting really, really good at implementing processes. And it seems to me, anytime people talk about AI ethics, AI fairness, that sort of thing, that this is the thing that gives me chills or makes me a little bit nervous about the whole space, is the apparent lack of consistency.

Jeremie (09:04):

It’s hard to know what AI fairness is, what AI ethics is. It seems like everyone has a different definition. And it’s also unclear to me how, even once we have those definitions, we can then codify them into processes that are replicable and scalable. So, that expertise must’ve been critical, right? I mean, that process development flow, that’s going to map onto the fairness in AI work?

Joaquin (09:27):

It does. Now, you hit the nail on the head. It’s interesting because a lot of the things we did when we were democratizing AI inside the company are being very helpful now that we’re working on Responsible AI, although maybe that was not the first idea we had in mind. But the idea that right now we have the tooling that allows us to see what are all of the models that are deployed in production across Facebook and who’s built them and what went into them turns out to be to give you this level of obstruction and consistency, which is really important. But of course, there’s a lot more to Responsible AI. Like you said, there is broad disagreement on definitions of concepts. So, maybe let me tell you about my own journey into that world.

Joaquin (10:23):

I had been following with the corner of my eye the Fairness, Accountability, and Transparency Workshop. I believe the first year it took place was probably 2014 or something like that at NeurIPS, and then it kept recurring. And then I believe 2018 might be the year where it spun out. And in fact, I attended that workshop. It became its own sort of separate conference and it took place, 2018 it was in New York.

Joaquin (10:53):

But just before that end of 2017 at the New York’s conference, there were a couple of fundamental keynotes by people like Kate Crawford or Solon Barocas and many others. And it just became obvious to me, like my whole brain exploded in a way and I thought, the time is now. It’s obvious the time is now. We need to put the food on the gas here. We need to go all in. We need to go from initial efforts to really, really build a big dedicated effort that focuses on Responsible AI.

Joaquin (11:27):

And then with my background as someone who loves math and as someone who loves engineering and as someone who loves processes and platforms and giving people tools, I sort of, okay, well, I think we can figure out algorithmic bias out in a couple of months [crosstalk 00:11:42].

Jeremie (11:43):

It can’t be that hard.

Joaquin (11:44):

Yeah, it can’t be that hard. How hard can it be? I thought, let’s take a look here. So, I looked at some of the work, some of the definitions. And then of course, immediately it became clear. This is work by Arvind Narayanan, who gives this beautiful talk, 21 definitions of fairness and their politics. There’s a talk he gave about that in 2018. At the time it was called a FAT Star conference. Now it’s called FACT. [inaudible 00:12:11] community were great at coming up with terrible names like [NIPS 00:12:14] and FAT. And then luckily we renamed them.

Jeremie (12:18):

Move fast and break things.

Joaquin (12:19):

Move fast and break things. So, I thought, okay, well, that’s fine. Out of these 21 definitions, some of the definitions of fairness try to equalize outcomes between groups, some of the definitions of fairness try to focus on treating everyone the same, and I’m like, okay, how many do we really need? And it’s like, maybe we can implement a couple. I imagine like a drop down box like, okay, which one do I pick as a [crosstalk 00:12:44] practitioner? I thought we can have beautiful visualizations of data composition broken down by subgroup, accuracy of your model, calibration curves, all these things. I’m like, okay, we got this we, we can get this done in a couple of months.

Joaquin (12:59):

Then it hit me like a ton of bricks that AI fairness is not primarily an AI problem, and that math does not have the answer. And that it’s extremely context dependent what definition of fairness you should use. That you need to build multi-disciplinary teams that involve people who come from moral and political philosophy. That’s actually extremely important. And probably the most important one of all is that fairness is not a property of a model. It’s not a status box. It’s actually a process. Fairness is a process. In fact, I’m going to tilt the camera a little bit and show you … I intentionally am wearing this T-shirt we made for the team that says, fairness is a process.

Jeremie (13:45):

Ah, very nice.

Joaquin (13:46):

So, this is a set of T-shirts we built for the team because I kept repeating this all the time. And so our executive assistant for the team one day came up with this pile of T-shirts for everybody and says, “Okay, you all keep saying all the time fairness is a process [inaudible 00:14:03].” So anyway, we wear them with pride. You’re never done. The thing that maybe is a little bit hard for an engineer to think about is that this is not like, oh, I’m going to build this microphone here and it’s done. I’ve tested it, it works. It’s not like that.

Joaquin (14:20):

And if you go back in time, I guess humanity has been discussing fairness since Aristotle. And we’re still discussing, and we don’t agree. And it becomes political as it should because we have different ideologies. So, you need to build this processes that are multidisciplinary that involve risk assessments, surfacing the decisions, documenting how you make them and all of that. And that’s only for fairness. Obviously, in Responsible AI you have many other dimensions to tackle as well.

Jeremie (14:54):

I love the idea of fairness as a process partly because, well, there’s this well-known principle called Goodhart’s law. As soon as you define a metric, you say, we’re going to optimize this one number, then all of a sudden people find ways around it, they find hacks, they find cheats. I’m arguably seeing that with the stock market today.

Jeremie (15:12):

The time was back in 1950 as a general rule, if the stock market went up, people’s quality of life went up. But now we’re seeing a decoupling as people start to play games and politics and optimize around it. So, this seems like … I mean, is this part of the strategy is recognizing the fact that there’s no single loss function, no single optimization function to improve and instead look like let’s focus on the process?

Joaquin (15:35):

Absolutely. I have several things I’d like to say about this. First of all, every single metric is imperfect. Even if you’re not working on fairness specifically, the moment you set a metric goal, and in particular, I think one of the reasons that many technology companies are very successful is that I think we can iterate fast, we can be very quantitative, we can be metrics-driven, and we can move those metrics.

Joaquin (16:11):

But that at the same time is also potentially our Achilles heel that is what can actually get you into trouble. So, it’s essential to develop very strong critical thinking. And it’s essential to develop what we call counter metrics, like other metrics that work in a position which you should not make worse as you make this one metric better. But even that is-

Jeremie (16:36):

[crosstalk 00:16:36] an example of one of those actually? That sounds like a fascinating idea.

Joaquin (16:39):

A simple idea would be, imagine that you are trying to improve the accuracy of a speech recognition system and you’re measuring it by word error rate or something like that, whatever you want. So, one counter metric you could build if you cared about fairness is you could actually break down, you could desegregate your metric, say by, in the U.S. you could do this by some geographical grouping since accents vary across the country. And then your counter metric could be that you cannot decrease performance for any group because averages will always get at you, right?

Jeremie (17:21):

Yeah.

Joaquin (17:21):

You can make things twice better for the majority group, you can make them worse for another group, and you might not even realize. So, that’d be a very fairness centric metric. But you could imagine many other scenarios where you’re trying to optimize many aspects of an experience, and there are certain things that you don’t want to make worse.

Jeremie (17:51):

I think one of the first comments you made about this was fairness or definitions of fairness are not a challenge for the data scientists.

Joaquin (17:58):

Right.

Jeremie (17:58):

That’s not something they should have to worry about, which makes total sense. Data scientists don’t have time to get philosophy degrees and degrees in public policy. So, it’s going to be someone’s job ultimately. And whether that’s a policy maker or somebody with more of a liberal arts background, one question that comes to mind is the character of conversations around these metrics gets really deeply technical really fast. And I imagine just being able to communicate the nature of the decisions being made, that’s its own challenge. Do you see that coming up a lot, and are there any strategies that you use to address that challenge?

Joaquin (18:32):

It’s a challenge. One of the things we’ve been having success with is to define a consistent vocabulary for talking about fairness across the company and also a consistent set of questions that are increasing in their complexity to make this very concrete and illustrated with examples. One of the most fundamental definitions of fairness you can have is to ask the question, does my product work well for all groups? The question of defining groups is very context dependent as well of course.

Joaquin (19:18):

To my left I have our Facebook Portal camera, and it has a smart AI that is capable of tracking people. If I’m video conferencing with my parents in Spain or my parents in [inaudible 00:19:36], Germany, which is basically now you can imagine how our weekends go with our kids or we’re videoconferencing with them, we’ve actually given them some of those devices too because if you have your phone that you’re using to Skype or to FaceTime or to use whatever software you use, it’s really annoying to try to keep the frame centered and so on.

Joaquin (19:56):

And so with Portal it’s magic, but the AI that tracks people and that sees if you have two people to zoom it out, crop, and center and everything, you can’t take for granted that it’s going to work equally well across skin tones or genders or ages. In that context, you can say, well, how do I define a minimum quality of service? And a minimum quality of service is going to be that the failure rate where someone gets cropped out or something has to be smaller than a certain small percent of the time or of the number of frames or sessions or something.

Joaquin (20:34):

And that’s a reasonable concept, this idea of minimum quality of service. I want my product to work well enough for everybody. Of course, within the context of my product, one of the key questions is, hey, given what you’re trying to build, who are the most sensitive groups you should consider? Later on, if you want, I’ll put something in the topic jar, which is we can talk about election interference. And we can talk about how AI can help in that context. And we can talk about the India elections. And we can then reason about what groups are relevant in that context.

Joaquin (21:12):

But back to the Portal example, the most basic set of questions about fairness would be, hey, can you desegregate your metrics? Teams have typically launched criteria. So the data science, the ML team will say, “Hey, is this model good enough?” Well, the question is, instead of having a roll-up metric desegregated by group, in this case, it could be skin tone, there’s many scales you can use for this, age and gender, and then for each of those buckets, look at the bucket for whom the performance is worst and imagine that that was the only population you had, would you still launch?

Joaquin (21:50):

If the answer is no, then maybe you need to sit back and figure out, okay, how do I make sure that I’m not leaving anybody behind. Then leading to the India elections, there is one set of questions and one definition of fairness that is more comparative in nature. In a way, minimum quality of service compares against the bar, but it doesn’t necessarily then worry about, oh, it may work still a bit better for a group than another. It’s fine as long as it works well enough for everybody. And I’ll put another topic in the topic jar, which is Goodhart’s law and how even you can game or screw up your minimum quality of service as well.

Joaquin (22:30):

But the next level up would be equality or equality of treatment. You could say, okay, well, I actually care about differences in performance. And the India elections example goes like this. Last year around April, May, if I remember correctly, we had the biggest elections in the history of humankind. I think it was close to a billion registered voters or something along those lines. A little bit less than that, but massive. And in a time where there are many concerns of misinformation and attempts of manipulation.

Joaquin (23:08):

The way we would tackle this without AI would be to have humans who are given standards, community guidelines, content policies, and who check that content doesn’t violate those. And if it does, you take them down. But the problem is at the scale of this election and at the volume we have, there’s no number of humans you can hire to do this. So then what you need to do is you need to prioritize the work because obviously, my post about me playing the guitar or featuring my cat or my dog, we shouldn’t waste time reviewing those.

Joaquin (23:47):

But if there are issues that politicians are discussing, or even if it’s not politicians, organizations are talking about civic content, content that discusses social or political issues, then we should prioritize those. So, we built an AI that does just that. We call it the civic classifier. So, what it does is it sifts through content and it identifies content that is likely to be civic in nature, and then prioritize that for review by humans.

Joaquin (24:20):

What’s the fairness problem? Well, the fairness problem is that in India, you have, I think it’s over 20 official languages, and there are many regions that have very different cultural characteristics. So really, if you break down your population into regions and languages, you can see how those actually correlate with things like religion or caste. And the social issues that concern people in different regions are different. But now you have an AI that’s prioritizing where we put those human resources to review content. What happens if that AI only works well for a couple of languages and it doesn’t work for others?

Joaquin (25:01):

So, if you take the language analogy, what happens if it overestimates risk for a language? Meaning we would prioritize … we’d put more human resources to review posts in that language. And if you under predicts or underestimates the likelihood that something is civic in nature for another language, then we’re not allocating enough human resources there.

Joaquin (25:22):

And then we decided not to stop by minimum quality of service, we thought, this is a case where we really want equal treatment. And since what we have here is a binary classifier that outputs a number between zero and one that says, what’s the probability that this piece of content is civic, then what we said is well, we want those predictions to be well calibrated for every single language and every single region.

Joaquin (25:47):

So again, the notion of fairness there, we set a higher bar because this was about fairness of allocation of resources. And then just to complete the picture, the third common definition and sets of questions associated that we’re also using internally is around equity and is around asking, not just should we treat everybody and everything the same, or should the performance of the system be above a certain bar for everybody? The question then becomes, is there any group of people, for example, for whom the product outcomes deserve special attention? And this can be because there might be some historical context that we should take into account.

Joaquin (26:42):

And one example we’ve seen in 2020 in the wake of racial justice awareness in the U.S. has been the focus, for example at Facebook, on business outcomes for Black-owned businesses. So, we’ve built product efforts that help give visibility to Black-owned businesses because we felt that the Facebook platform has the opportunity to help improve a situation that was already there.

Joaquin (27:17):

Many times the question when you think about fairness too is one of responsibility. It’s like, okay, people may say, well, but society is biased, and here I am, I’ve built a neutral piece of technology, I don’t have skin in this game. And I think what we’re saying is it doesn’t work that way. Your piece of technology can reflect these biases, it can perpetuate them, it can encapsulate them inside of a black box that legitimizes them or that makes them very difficult to debug or understand. And then on the flip side, technology can also make outcomes better for everybody. But sometimes we have to ask ourselves, is there any group that we’re going to prioritize? That was a lot of words.

Jeremie (28:03):

No. I think it’s hard to answer the question, how is fairness managed at Facebook in a Twitter [inaudible 00:28:10].

Joaquin (28:09):

Right.

Jeremie (28:10):

But I think it’s really interesting the different kind of lenses and different approaches to fairness you’re describing. From a process standpoint, one of the things I’d be really curious about is, where within the organization does the decision with respect to which standard of fairness to apply come from? And do you think that the process for making that decision is currently formalized and structured well enough? Obviously, there’s going to be iteration, but do you feel like you have a good sense for how that process should be structured?

Joaquin (28:42):

Yeah. So, we’re building the process. But what was very clear to us is that it’s a hub-and-spokes model. So, we have a centralized Responsible AI team that is multidisciplinary. It has, as I mentioned earlier, not only AI scientists and engineers, but it also has moral and political philosophers and social scientists. And what that team does is the whole layer cake that ranges from providing an ethical framework for asking some of these questions, so that would be the qualitative part, if you will, then going more into the quantitative part, which is like, hey, how do we …

Joaquin (29:26):

Now you talked about equality versus minimum quality of service. And for equality, you talked about binary classifiers. What does that actually mean in math? What do I look at? Do I look at false positive rates between groups or something like? Answer, no, we don’t necessarily because that has problems. But what do you do?

Joaquin (29:48):

And then there’s another layer beneath this, which is more the platform and tooling integration. Again, leveraging all of the work we had done in Applied ML, how do we make it really easy and really friendly to be able to break down the predictions of the algorithm by groups, et cetera? So, you have this entire layer cake including things like office hours, which are actually really important. It is centralized.

Joaquin (30:15):

And then what you see is that every product team is building their own embedded expert group that will collaborate very closely with a centralized team. And the reason you have to do it this way is that you need the centralized team to have consistent practices, consistent terminology and definitions, but the decisions, to your point earlier, need to be made in context.

Joaquin (30:45):

And so it would be impractical and inefficient to have the centralized team make hundreds of decisions that are very context-dependent. And then the biggest thing is because we said, it’s a process, you don’t make the decision once and you’re done. You keep at it. Right?

Jeremie (31:04):

Yeah.

Joaquin (31:06):

Just as a side note, I watched the movie, Coded Bias, by Shalini Kantayya. It features Joy Buolamwini and Timnit Gebru and Cathy O’Neil and many other brilliant researchers on Responsible AI. And I think it must be really dangerous to try to cite people live and then get the person wrong.

Joaquin (31:32):

One of them, I’m going to keep it at that level of abstraction because I don’t remember who said it, one of them said something like, “Many of these Responsible AI practices, like fairness, they’re like hygiene. It’s like you have to brush your teeth every day.” And so that’s how I think about it. And you have to do it in context of your product. So, we’re seeing an increasing number of product teams build their own embedded effort, and we collaborate very, very closely with them.

Jeremie (32:04):

And how do you decide … So, there’s an almost economic aspect of this that I’m fascinated by. I think I saw Amanda Askell, one of OpenAI’s AI policy specialists, she tweeted about this idea that there’s a motif right now in the AI ethics community that if I can find a reason that an algorithm is bad, then that algorithm simply should not be deployed. There’s that vibe in the zeitgeists to some extent where people will say, “Oh, well, this algorithm discriminates in this marginal way.”

Jeremie (32:33):

And of course, we know all algorithms will inevitably discriminate in some way. So, there’s got to be some kind of threshold of some sort where we say, okay, this is too much, and this is not enough. How do you think about, I guess the economic trade-off from that standpoint? I mean, you could try to debias algorithms until the cows come home, but at some point, something’s got to get launched. So yeah, I guess, how do you think about that trade-off?

Joaquin (32:59):

I think it’s extremely difficult to come up with a purely quantitative answer to that question. I mean, again, as a math and engineering person, I’d love to be able to cost function where I say, if I’m reducing hate speech using AI, the cost of a false positive is $40 and three cents. And so that’s very hard. I think what that touches on, I think is on a few things. It touches, I think on transparency, and it touches on governance.

Joaquin (33:40):

And I think where I believe things are going to go is that the expectation is going to be that when you build AI into a product that you are very transparent about the risk benefit analysis, there’s a phrase that I’m using these days and I’m probably stealing it from someone and I don’t know, this idea of AI minimization, this idea of … In the same way as people talk about data minimization. So, AI minimization. Instead of my instinct being let’s use AI because it’s cool, it should be like, can I do it without AI? And then if the answer is maybe, but then if I put AI, it adds a ton more value for everybody, it’s like, okay, well, that’s justified, I have a value.

Joaquin (34:33):

And then comes the flip side, which is all the list of risks. And one of the risks may be discrimination, or it may be other definitions of unfairness. And I think being transparent about those trade-offs and having ideally like a closed loop mechanism to get feedback and to adjust and see what’s acceptable, I think this is an inevitable future that we will be in.

Joaquin (35:06):

An example that I use a lot is not an AI example, but again, I’ll say it again, many of these problems are not familiar AI problems. We think about content moderation and the difficult trade-off between giving everybody a voice and allowing for freedom of speech, but on the other hand, protecting the community from harmful content. And there is misinformation that is obviously harmful. We’ve come to the firm conclusion that we neither can or should do this ourselves or on our own. And when I say we, I’m of course speaking as a Facebook employee. But I think this is generally true across technology.

Joaquin (35:55):

We’re experimenting with this external oversight board. Maybe you’ve heard of it. It’s a group of experts. It’s taken a lot of work to the team that put them together to come up with the bylaws and how they’re going to operate. But let’s focus on the spirit of it for a second. The spirit of it is that there will be decisions that are tricky. No content policy is ever going to be perfect. And so it’s essential to have humans in development to have a governance that includes external scrutiny and expertise. I think at the end of the day, it’s going to be this interplay of transparency, of accountability, of governance mechanisms that are participatory. Right?

Jeremie (36:45):

Yeah.

Joaquin (36:46):

If you zoom out and you think about AI in 10 years being very prevalent, being very consequential, one big question is going to be one of participatory governance, right?

Jeremie (36:58):

Yeah.

Joaquin (36:59):

How do you or I have a say in where the AI that drives our relatives or our pets to the vet, I mean, that would be pretty phenomenal, like some sort of self driving-

Jeremie (37:11):

And that itself, it’s almost as if it imposes this sort of like energy tax on the whole process where Facebook … I think it’s great that Facebook is doing this. I think it’s great that Facebook has a responsible AI division. And to some degree, it makes perfect sense that it can only happen at scale today because it’s only at scale that companies like Facebook and Google and OpenAI can actually afford to build giant language models and giant computer vision models. And this leads … I wish we had more time for this, but I do have to ask a question about Partnership on AI.

Joaquin (37:43):

Of course, yeah.

Jeremie (37:43):

Because it’s such an important part of this equation. One of my personal concerns is actually, we’ve talked a little bit about this here, but just the idea that there really is safety, privacy, fairness, ethics, all this stuff, they do take the form of what is effectively a tax on organizations that are competitive. I mean, Google has to compete with Facebook. Facebook has to compete with everybody else. It’s a market.

Jeremie (38:06):

And that’s a good thing, but as long as there’s a tax for fairness, as long as there’s a tax for safety, that means there’s an incentive to have some kind of a race to the bottom where everyone’s trying to invest minimally in these directions to some degree. And at least the way I’ve always seen it, groups like Partnership on AI have an interesting role to play in terms of mediating that interaction, setting minimum standards. I guess, first off, would you agree with that interpretation? And second, how do you see Partnership on AI as a bigger role as the technology evolves? Because I know this is a big thing, but I want to make sure I get your broad thoughts on [crosstalk 00:38:40].

Joaquin (38:39):

No, and I’m glad that you brought up Partnership on AI. I am on the board and have been very involved for the last couple of years, and I think it is an organization that the world needs. But I would love your help with understanding the logic behind the race to the bottom hypothesis. And maybe we can make it very concrete by picking any dimension of responsibility that you want. I’m just struggling a little bit. I want to make sure that I really understand what you mean.

Jeremie (39:14):

Yeah, yeah, definitely. So, I’m imagining … Actually, I’ll take an example from the alignment to AI safety community. So, one common one is a hypothesis, I don’t necessarily buy into this, but for concreteness, let’s assume it’s true, that language models can be scaled arbitrarily well and lead to something like super powerful models that are effectively Oracles or something like that. So, they’re essentially unbounding the amount of stuff you can do with super large language models.

Jeremie (39:43):

And to the extent that safety is a concern, you might not want an arbitrarily powerful language model that can plot and scheme. Like you can say, “Hey, how do I swindle like $80,000 from Joaquin?” And the language model goes, “Oh, here’s how you do it.” And yet, companies like OpenAI are competing with companies like DeepMind or whoever else to scale these as fast as they can. Whoever achieves a certain level of ability first, I mean, there’s a decisive advantage in even like six months of the time or whatever.

Jeremie (40:16):

There are analogs for this across, you got fairness, and bias and so on, but there’s always some kind of value that’s lost any time you engage in the company to company competition where you could invest the marginal dollar in safety, or you could invest the marginal dollar in capabilities. And that trade-off is something that … I’m wondering if Partnership on AI could play some sort of role in mediating between organizations setting standards that everybody at least thinks about adhering to, that sort of thing.

Joaquin (40:44):

Yeah. Thank you. I understand the question. The question makes me think a little bit about environmental sustainability in a way, where you could have the same race to the bottom in many ways, not only between companies, but even between countries. It’s like we have one planet. Who’s going to commit to cutting CO2 costs? Like, oh, well, just a second and I’ll be back in a moment.

Jeremie (41:10):

Just after this tree.

Joaquin (41:13):

Exactly. I think that Partnership on AI plays a key role on many fronts. First, being a forum, a very unique forum that brings together every single type of organization you can think of, academia, civil rights organizations, civil society, other kinds of not-for-profits, small companies and big companies. And some of these organizations on Partnership on AI are going to be actively lobbying and shaping and informing upcoming regulation. So, I think there is already a bit of pressure there somehow for big companies to be involved and to lead the way because failing to do so may mean that you have to deal with regulation that is bad for everybody. So, I feel like that’s one angle.

Joaquin (42:16):

The other angle is efficiency. Some of that work that you described, some of that dollar that I could either invest in making sure that my big language models are human value aligned and that they’re not evil, well, if you have an organization that is supported by a large number of for-profit companies and they do the work, projects like ABOUT ML is a project that I love that builds on documentation practices for data sets and for models, so it’s a combination of ideas, like datasheets for datasets and model cards and things like that, these are extremely powerful.

Joaquin (43:04):

And we at Facebook are definitely paying a huge amount of attention and experimenting with that. And I’m glad that we can use something, A, relatively off the shelf, but very [crosstalk 00:43:16], that we didn’t have to build ourselves, and for extra points. That gets the validation and credibility that you get from it being built by an organization like Partnership on AI, that doesn’t represent just our interests. And I think that that’s going to be a common pattern.

Joaquin (43:33):

That thing of, A, the 360 view that you get by having a multi-stakeholder organization that has everybody. Second, just the efficiency and convenience of having best practices and recommendations that come from people who really know what they’re doing, and where you know that everybody was looking while this was being created. And then the third one is really the legitimacy and validation that you get by using something that, hey, these are not like the ethical principles of Facebook. Right?

Jeremie (44:06):

Yeah.

Joaquin (44:06):

I mean, I would understand if people frowned and people were like, “Oh well, I mean, what interests are represented there?” Only Facebook’s, versus it coming from The Partnership on AI.

Jeremie (44:17):

Yeah. I mean, it’s one of those organizations where I’m hoping to see a lot more of them in the future. And it seems like the kind of thing that the nascent kind of kernel of that organization is hopefully going to keep blossoming because as you say, we need some kind of multi-partisan oversight of this space at so many different levels. And it’s great to see the initiative taking shape. Joaquin, thanks so much for your time. Actually, do you have a place where you like to share stuff, like Twitter in particular, or a personal website that you’d like to point people to if they want to find out more about your work?

Joaquin (44:49):

Oh, I have a confession. So, I’m a late Twitter adopter.

Jeremie (44:58):

Oh, that’s probably good for your mental health.

Joaquin (45:03):

But I now feel a strong sense of responsibility to be contributing and engaging in the public debate [inaudible 00:45:14] might be. I’m going to embarrass myself so much right now by having to even look up my Twitter. On Twitter, I am @jquinonero. So, it’s letter J and then my first last name. It’s complicated. I have two last names because I’m from Spain.

Jeremie (45:33):

We can share it.

Joaquin (45:34):

We have a … Exactly. Yeah, yeah. I have made a personal commitment to engage more, and I’m going to have to learn how to do this in a way that doesn’t disrupt my mental health like you were saying.

Jeremie (45:48):

Yeah. I think that’s one of the biggest challenges, for some reason, especially I find with Twitter is keeping that mindful state and not getting lost in the feed. Boy. Anyway, we’re in for a hell of a decade. But really appreciate your time on this. Thanks so much, and really enjoyed the conversation.

Joaquin (46:05):

Thank you so much, Jeremie. It’s an absolute pleasure to be here. And thank you for doing this podcast, and thank you for getting everybody involved in these kinds of conversations.

Jeremie (46:17):

My pleasure.

2021년 1월 21일 성남시 분당구 부동산 경매 데이터 분석

2021년 1월 21일 용인시 부동산 경매 데이터 분석