En términos generales allí dice que a medida que los programas se vuelven capaces de automatizar una cantidad de tareas en los mundos físicos y virtuales, se nos plantea a los humanos una serie de dilemas éticos y también legales.
Describe dos escenarios posibles sobre hipotéticos robots personales.
“Si usted tiene un robot personal, lo manda a Starbucks a buscarle un café y en el camino accidentalmente choca y empuja a una persona hacia la calle y esa persona muere arrollada por un auto que pasa, uno no siente que haya cometido un asesinato”, dice Kaplan. Pero el sistema legal tiene que dilucidar quién es responsable desde una perspectiva criminal. Aun cuando el dueño del robot no sea considerado criminalmente responsable por cómo el robot fue programado, podría ser considerado responsable bajo la ley civil. Kaplan cree que la gente podría necesitar un seguro especial que los proteja de responsabilidad en casos semejantes.
Presenta otro escenario en el cual los problemas legales son más espinosos: “Supongamos que usted está acusado de haber cometido un crimen, y las autoridades están interesadas en analizar lo que sabe su robot personal. ¿Debería el robot ser confiscado o tratado con cierto grado de respeto por su privacidad en la forma en que es tratada la esposa de un acusado?”
“Vamos a tener que desarrollar nuevos cuerpos de ley para dilucidar cuál es el grado de responsabilidad por las órdenes que damos a un robot”
Por otro lado, “Si este robot nos está ayudando a hacer cosas en la casa que son de una legalidad cuestionable. ¿Tiene el sistema jurídico derecho a inspeccionar la memoria del robot?”
Cuestiones como éstas y muchas más deberían comenzar a ser tenidas en cuenta, dice Kaplan, por los gobiernos y las entidades responsables de implementar tecnologías de inteligencia artificial.