Pull to refresh

Comments 11

Согласно этой базе, у «цветных» больше нарушений, а значит ИИ на них может обращать особо пристальное внимание и влиять таким образом на предвзятость самой полиции.

Если это в стиле полиции "Мирры" или "Уважения культурных традиций" Шапиро — я бы даже сказал, что это правильно.

Согласно этой базе, у «цветных» больше нарушений

и за это давно обвиняли алгоритмы в расизме, а не признавали социальную проблему. Причём задолго до бума ИИ.

Долго до них доходило.

Видимо были не в курсе, кто их продукт использует и для чего. Потом прилетело и спохватились.

Ни одна вменяемая компания на такое не пойдет.

У традиционной системы распознавания есть четкий алгоритм, который можно проверить, вывести системную ошибку и указать ее.

У AI - черный ящик. Сходимость результатов отсутствует, с математической точки зрения". Проверит верность результата не получится, как и дать четкие границы качества

Завтра MS/OpenAI обвинят в ложном обвинении из-за ошибки алгоритма и привет. Не отмыться.

Завтра MS/OpenAI обвинят в ложном обвинении из-за ошибки алгоритма и привет. Не отмыться.

Я сомневаюсь что их можно действительно обвинить или точнее привлечь к ответственности. OpenAI это инструмент. Он не принимает решения. Решения принимает какой-то сотрудник полиции или там прокуратуры. И ему за эти решения и отвечать.

Единственное за что в такой ситуации можно привлечь Microsoft, так это за то что их инструмент "сломан" и работает неправильно. Но есть у меня подозрение что в Microsoft тоже не совсем дураки и в договорах/пользовательских соглашениях на эту тему есть подходящие параграфы.

У AI - черный ящик.

Ну не совсем. Формально любая нейросеть - это просто очень длинная линейная функция, поэтому в теории может быть для любых вводных данных четко определен алгоритм.

Завтра MS/OpenAI обвинят в ложном обвинении из-за ошибки алгоритма и привет. Не отмыться.

Не в репутации дело, скорей всего. А в нежелании участвовать в каждом судебном деле, связанном с распознаванием

Формально в статье речь о правилах для коммерческого клауда.

Для госов и военных у них есть отдельные облака GCC и GCC High, чьи условия использования прописываются отдельно.

Я думаю логично запретить полиции использовать коммерческие сервисы, при наличии более подходящих альтернатив. А при правильной подаче материала ещё и пропиариться.

Face recognition системы и прочая биометрия это серьезный бизнес со своей сертификацией и регулированием https://www.nist.gov/speech-testimony/facial-recognition-technology-frt-0.

А какой именно функционал по распознаванию лиц предлагает azure openai?

Тут интересно другое: Microsoft запретила полиции США использовать свой продукт. Можете представить новость: Яндекс запретил МВД использовать свой продукт?

Azure Open AI это лишь один продукт из огромной кучи.

Все равно, что на мешке с рисом написать "без асбеста", а рядом на мешке с асбестом наоборот - "без риса".

Microsoft предлагают решения для полиции, просто в рамках других продуктовых линеек. Например https://info.microsoft.com/UK-HW-WBNR-FY22-02Feb-18-Microsoft-Teams-Industry-Special-Police-Service-AID-3044545-SRGCM6019_LP01-Registration---Form-in-Body.html

Какие то проблемы могут возникнуть у сторонних интеграторов, кто разрабывает решения для полиции на базе коммерческих продуктов Microsoft. Но даже в этом случае вопрос может быть решен с помощью персональных условий в контракте.

Не здесь ли была статья, о тендере дептранса Москвы, по использованию BT сигнатур (от наушников, смарт часов, и.т.п.) "для оптимизации нагрузки натранспортную систему".?

Sign up to leave a comment.

Other news