Каждая система, использующая данные, разделяет человечество на победителей и проигравших.
Я бы сказал, что одной из основных проблем с нашим слепым доверием к алгоритмам является то, что мы можем распространять дискриминационные закономерности, не признавая каких -либо намерений.
Мы не можем просто выбросить что -то там и предположить, что это работает только потому, что в ней есть математика.
Есть много разных способов, которыми алгоритмы могут пойти не так, и то, что у нас есть сейчас, - это система, в которой мы предполагаем, потому что это блестящая новая технология с математической аурой, что она идеальна, и она не требует дальнейшего проверки. Конечно, у нас никогда не было такого предположения с другими видами технологий.
Между техническими решениями, которые мы принимаем, и этическими последствиями, за которые мы несем ответственность, существует меньше связи для многих людей.
Я знаю, как создаются модели, потому что я строю их сам, поэтому я знаю, что встраиваю свои ценности в каждый алгоритм, который я создаю, и проецирую свою повестку дня на эти алгоритмы.
Из -за моего опыта в Occupy, вместо того, чтобы задавать вопрос: «Кто выиграет от этой системы, которую я реализую с помощью данных?» Я начал задавать вопрос: «Что будет с самым уязвимым?» Или «Кто проиграет в рамках этой системы? Как это повлияет на худшего человека?» Какой вопрос отличается от «Как это улучшает жизнь определенных людей?»
Самая важная цель, которую я имел в виду, состояла в том, чтобы убедить людей остановить слепо, доверять алгоритмам и предположить, что они по своей сути справедливы и объективны.
Общественность слишком много доверяет большим данным.
Это стандартная вещь, которую вы слышите от Startup People - что их продукт каким -то образом улучшает мир. И если вы будете следить за рассуждением, вы попадете где -то, и я скажу вам, где вы получите: вы получите описание того, что происходит с победителями в рамках системы, которую они строят.
Очевидно, что чем больше прозрачности у нас в качестве аудиторов, тем больше мы можем получить, но главная цель - понять важные характеристики алгоритма черного ящика, не обязательно понимая каждую гранулированную деталь алгоритма.
По какой -то причине я никогда не отделял технику от этики.
Мы не позволяем автомобильной компании просто выбросить машину и начинаем водить его, не проверяя, что колеса прикреплены. Мы знаем, что это приведет к смерти; Но по какой-то причине мы без колебаний выбрасываем некоторые алгоритмы непроверенные и некнутрированные, даже когда они принимают очень важные решения о жизни и смерти.
Большая часть нашего общества в целом готовит нас максимизировать нашу зарплату или бонус. По сути, мы просто думаем с точки зрения денег. Или, если не деньги, то, если вы находитесь в академиях, это престиж. Это другой вид валюты. И есть это неизмеримое измерение всех рабочих мест, то есть ли это улучшать мир.
По строительству мир больших данных заливает и сегментируется, так что успешные люди, такие как я - технологи, хорошо образованные белые люди, по большей части получают выгоду от больших данных, и это люди на другой стороне Экономический спектр, особенно цветные люди, которые страдают от этого. Они страдают от этого индивидуально, в разное время, в разные моменты. Они никогда не получают четкого объяснения того, что на самом деле произошло с ними, потому что все эти оценки являются секретными, и иногда они даже не знают, что их забивают.
Доказательства вреда трудно найти.
Моя фантазия заключается в том, что есть новый регулирующий орган, отвечающий за алгоритмический аудит.
Когда люди не предоставляют вариант по какой -то секретной системе оценки, очень трудно жаловаться, поэтому они часто даже не знают, что они становятся жертвами.
Когда я думаю о том, хочу ли я устроиться на работу, я не просто думаю о том, является ли это технически интересным, хотя я считаю это. Я также рассматриваю вопрос о том, хорошо ли это для мира.
Микро-мишенинг-это возможность для кампании профилировать вас, знать о вас гораздо больше, чем вы знаете об этом, а затем выбрать, что именно показывать вам.
Например, с алгоритмами рецидивизма я беспокоюсь о расистских результатах. С помощью личностных тестов [для найма] я беспокоюсь о фильтрации людей с проблемами психического здоровья с рабочих мест. А с алгоритмом модели с добавленной стоимостью учителя [используется в Нью-Йорке для забивания учителей], я буквально беспокоюсь о том, что это не имеет смысла. Что это почти случайный генератор чисел.
Обучение, которое можно получить, когда кто -то становится техником, таким как ученый для данных, - мы обучаем математике, информатике или статистике - полностью отделено от обсуждения этики.
Отсоединение, которое я испытывал, заключалась в том, что люди ненавидели Уолл -стрит, но они любили технологии.
Вы никогда не сможете что -то измерить, верно? Включая учителей.
Это то, что мы делаем, когда работаем в технических стартапах Силиконовой долины: мы думаем о том, кто из этого выиграет. Это почти единственное, о чем мы думаем.