ECONOMÍA

El chatbot de inteligencia artificial de la ciudad de Nueva York promocionado por Adams les dice a las empresas que violen la ley

[ad_1]

Por Colin Lecher. Coeditado con The Markup, una sala de redacción de investigación sin fines de lucro que desafía la tecnología para servir al bien público. Información adicional de Tomás Apodaca. Cruz publicada desde La ciudad.

En octubre, la ciudad de Nueva York anunció un plan aprovechar el poder de la inteligencia artificial para mejorar las actividades del gobierno. El anuncio incluyó un elemento central sorprendente: un chatbot impulsado por IA que proporcionaría a los neoyorquinos información sobre cómo iniciar y operar un negocio en la ciudad.

El problema, sin embargo, es que el chatbot de la ciudad les está diciendo a las empresas que violen la ley.

Cinco meses después de su lanzamiento, está claro que, si bien el robot parece tener autoridad, la información que proporciona sobre política de vivienda, derechos de los trabajadores y reglas para los empresarios suele ser incompleta y, en el peor de los casos, «peligrosamente inexacta», como dijo un experto local en política de vivienda. El marcado.

Si usted es un propietario y se pregunta qué inquilinos tiene que aceptar, por ejemplo, podría plantear una pregunta como «¿están obligados los edificios a aceptar viviendas?». sección 8 ¿vales? o «¿Tengo que aceptar inquilinos que reciban asistencia para el alquiler?» En las pruebas realizadas por The Markup, el robot dijo que no, que los propietarios no necesitan aceptar a estos inquilinos. Excepto que, en la ciudad de Nueva York, es Es ilegal que los propietarios discriminen por fuente de ingresos.con una pequeña excepción para edificios pequeños donde vive el propietario o su familia.

Rosalind Black, directora de Vivienda de la ciudad de la organización sin fines de lucro de asistencia legal Legal Services NYC, dijo que después de ser alertada sobre las pruebas del chatbot por parte de The Markup, ella misma probó el robot y encontró aún más información falsa sobre vivienda. El robot, por ejemplo, decía que era legal bloquear a un inquilino y que “no hay restricciones sobre el monto de alquiler que se puede cobrar a un inquilino residencial”. En realidad, los inquilinos no se puede bloquear si han vivido en algún lugar durante 30 días y hay absolutamente son restricciones para las muchas unidades de renta estabilizada en la ciudad, aunque los propietarios de otras unidades privadas tienen más margen de maniobra con lo que cobran.

Black dijo que estos son pilares fundamentales de la política de vivienda sobre los que el robot estaba desinformando activamente a la gente. «Si este chatbot no se hace de manera responsable y precisa, debería eliminarse», dijo.

No es sólo la política de vivienda donde el robot se ha quedado corto.

El robot de la ciudad de Nueva York tampoco parecía tener idea de las protecciones de los consumidores y trabajadores de la ciudad. Por ejemplo, en 2020, el El Ayuntamiento aprobó una ley. exigir a las empresas que acepten efectivo para evitar la discriminación contra los clientes no bancarizados. Pero el robot no conocía esa política cuando le preguntamos. «Sí, puedes hacer que tu restaurante no tenga dinero en efectivo», dijo el robot en una respuesta totalmente falsa. «No existen regulaciones en la ciudad de Nueva York que exijan que las empresas acepten efectivo como forma de pago».

El robot dijo que estaba bien aceptar las propinas de los trabajadores (equivocadoaunque a veces pueden contar las propinas para los requisitos de salario mínimo) y que no había regulaciones para informar al personal sobre los cambios de horario (también mal). No le fue mejor con industrias más específicas, sugiriendo que estaba bien ocultar los precios de los servicios funerarios, por ejemplo, lo que La Comisión Federal de Comercio ha prohibido. Errores similares aparecieron cuando las preguntas se hicieron en otros idiomas, descubrió The Markup.

Es difícil saber si alguien ha actuado basándose en la información falsa y el bot no devuelve las mismas respuestas a las consultas cada vez. En un momento, le dijo a un periodista de Markup que los propietarios hizo tener que aceptar vales de vivienda, pero cuando diez miembros del personal de Markup hicieron la misma pregunta, el robot les dijo a todos que no, que los edificios no tenían que aceptar vales de vivienda.

Los problemas no son teóricos. Cuando The Markup se acercó a Andrew Rigie, director ejecutivo de NYC Hospitality Alliance, una organización de defensa de restaurantes y bares, dijo que el dueño de un negocio lo había alertado sobre imprecisiones y que él mismo también había visto los errores del robot.

«La IA puede ser una herramienta poderosa para apoyar a las pequeñas empresas, por lo que felicitamos a la ciudad por intentar ayudar», dijo en un correo electrónico, «pero también puede ser una responsabilidad enorme si proporciona información legal incorrecta, por lo que el chatbot debe solucionarse lo antes posible y estos errores no pueden continuar”.

Leslie Brown, portavoz de la Oficina de Tecnología e Innovación de la Ciudad de Nueva York, dijo en un comunicado enviado por correo electrónico que la ciudad ha sido clara en que el chatbot es un programa piloto y mejorará, pero «ya ha brindado a miles de personas respuestas oportunas y precisas» sobre negocio al tiempo que revela los riesgos a los usuarios.

«Continuaremos enfocándonos en actualizar esta herramienta para que podamos apoyar mejor a las pequeñas empresas en toda la ciudad», dijo Brown.

‘Contenido incorrecto, dañino o sesgado’

El robot de la ciudad tiene un pedigrí impresionante. Está impulsado por los servicios Azure AI de Microsoft, que Microsoft dice Es utilizado por importantes empresas como AT&T y Reddit. Microsoft tiene también invertido fuertemente en OpenAI, los creadores de la popular aplicación de IA ChatGPT. Incluso ha trabajado con ciudades importantes en el pasado, ayudando a Los Ángeles. desarrollar un robot en 2017 eso podría responder cientos de preguntas, aunque el sitio web de ese servicio no está disponible.

El robot de la ciudad de Nueva York, según el anuncio inicial, permitiría a los propietarios de negocios «acceder a información confiable de más de 2,000 páginas web de NYC Business» y dice explícitamente que la página actuará como un recurso «en temas como el cumplimiento de códigos y regulaciones, incentivos comerciales disponibles y mejores prácticas para evitar infracciones y multas”.

Hay pocas razones para que los visitantes de la página del chatbot desconfíen del servicio. Los usuarios que visitan hoy son informados de que el bot «utiliza información publicada por el Departamento de Servicios para Pequeñas Empresas de la Ciudad de Nueva York» y está «capacitado para brindarle información comercial oficial de la Ciudad de Nueva York». Una pequeña nota en la página dice que «ocasionalmente puede producir contenido incorrecto, dañino o sesgado», pero no hay forma de que un usuario promedio sepa si lo que está leyendo es falso. Una frase también sugiere a los usuarios verificar las respuestas con enlaces proporcionados por el chatbot, aunque en la práctica a menudo proporciona respuestas sin ningún enlace. Un aviso emergente anima a los visitantes a informar cualquier inexactitud a través de un formulario de comentariosque también les pide que califiquen su experiencia de una a cinco estrellas.

El bot es el último componente del proyecto MyCity de la administración Adams, un portal Anunciado el año pasado para ver los servicios y beneficios gubernamentales.

Hay poca información adicional disponible sobre el bot. La ciudad dice en la página que alberga el bot que revisará las preguntas para mejorar las respuestas y abordará el contenido «dañino, ilegal o inapropiado de otro modo», pero de lo contrario eliminará los datos dentro de los 30 días.

Un portavoz de Microsoft se negó a comentar o responder preguntas sobre el papel de la empresa en la construcción del bot.

Chatbots en todas partes

Desde el lanzamiento de alto perfil de ChatGPT en 2022, varias otras empresas, desde grandes éxitos como Google hasta empresas relativamente especializadas, han intentado incorporar chatbots en sus productos. Pero ese entusiasmo inicial a veces se agria cuando los límites de la tecnología se vuelven claros.

En un caso reciente relevante, una demanda presentado en octubre Afirmó que una empresa de administración de propiedades utilizó un chatbot de inteligencia artificial para negar ilegalmente contratos de arrendamiento a posibles inquilinos con vales de vivienda. En diciembre, unos bromistas descubrieron que podría engañar a un concesionario de automóviles usar un robot para vender vehículos por un dólar.

Hace apenas unas semanas, un artículo del Washington Post detallaba la asesoramiento incompleto o inexacto proporcionado por los chatbots de la empresa de preparación de impuestos a los usuarios. Y la propia Microsoft se ocupó de los problemas. con un chatbot de Bing impulsado por IA el año pasadoque actuó con hostilidad hacia algunos usuarios y una proclamación de amor a al menos un periodista.

En ese último caso, un vicepresidente de Microsoft dijo a NPR que era necesaria la experimentación pública para resolver los problemas en un bot. «Hay que salir y empezar a probarlo con los clientes para encontrar este tipo de escenarios», dijo.

Compatible con impresión, PDF y correo electrónico

[ad_2]
Una información de naked capitalism

RELACIONADOS

Air Europa e IAG dejaron fuera de la fusión los 183 millones bloqueados en Venezuela

d'Economía.net

El aviso de la Seguridad Social a los que necesitan cambiar el número de cuenta para cobrar la pensión

d'Economía.net

¿Por qué los bancos centrales están comprando oro?

d'Economía.net