Según dice la denuncia presentada ante el Departamento Automotor del juzgado de California, Google dice que su auto estaba tratando de salirse del lento tránsito durante el Día de San Valentín cuando un colectivero no bajó la velocidad para hacerle lugar provocando un choque de poca consecuencia.
Pero el accidente pone de manifiesto los peligros de programar máquinas para sortear ese tipo de cuestiones sociales relacionadas con ” a quién le corresponde hacer qué cosa”, situaciones en las que las personas se encuentran todos los días pero que están más allá de lo que los robots pueden decidir.
También llega en un momento en que Google está tratando de oponerse a una disposición propuesta por el Estado de California que exigiría a los autos autónomos tener siempre una persona a mano para interceder y tomar el control en situaciones de emergencia.
Con referencia a este caso, Google dice que el choque se habría producido igual aunque hubiera habido un ser humano al volante, aunque agrega que ya ajustó su algoritmo para que tome en cuenta la experiencia extraída de ese rasguño. La compañía puso en su blog que “este es un clásico ejemplo de la negociación que forma parte de la acción cotidiana de manejar, donde todos tratamos de adivinar lo que va a hacer el otro. Nosotros tenemos claramente parte de la responsabilidad”. Pero también dijo que un empleado de Google también creía que había lugar para salir del carril.