Cita:
Iniciado por AquiCorrentino
|
De hecho viendo Futurama de nuevo me inspiré para esta pregunta xD.
Cita:
Iniciado por Jassito
|
Ese es el problema de crear un espacio almacenable que permita al usuario dar órdenes directas al autómata, aunque lamentablemente es algo necesario si se requiere que este pueda recibir órdenes. Lo mejor para estos casos es tener o bien órdenes y conocimientos limitados implantados en el autómata o una serie de reglas y principios que eviten que sea un riesgo para la seguridad del usuario. Aunque en este caso en particular también hay un factor humano importante a tener en cuenta, el chico logró destrozar su sistema lógico sobrecargándolo con órdenes mutuamente excluyentes las cuales debía ejecutar al mismo tiempo. Para eso es necesario que el autómata sepa negarse a cumplir órdenes que no pueda realizar (algo similar a los mensajes de error de muchos softwares) o que dentro de las normas preprogramadas no le esté permitido cumplir.
Siempre está la posibilidad de que alguien altere al autómata y le quite las inhibiiones, pero por esa misma razón se debe tener claro que es como un martillo, se puede usar para construir o para destruir, pero que es responsabilidad de su dueño evitar un desastre. En este caso los padres debieron ser advertidos, en especial dado que se estaban haciendo autómatas con fines bélicos, es natural darse cuenta de que un robot puede ser muy peligroso si no se usa con cuidado y responsabilidad. Me atrevo a hacer la comparación con un perro Pitbull o Rotweiler, hay familias con niños que logran mantenerlos y estos son los mejores amigos de sus hijos, y es porque se tienen los cuidados necesarios, es normal que un perro se enoje, como es normal que una persona se enoje. El robot no se enoja (salvo que la complejidad del programa sea capaz de llegar a la singularidad), pero puede ser programado tanto para reparar el techo de la casa, cocinar, limpiar, jugar incluso, como también se puede programar para asesinar. La idea creo yo es que el programa tenga limitaciones al nivel usuario, y que se le explique a este que va a tener esas limitaciones y que es muy necesario que se mantengan así, además es importante que el usuario dentro de lo posible no posea los conocimientos para alterar el programa, e incluso si es capaz de abrirlo y reparar fallas simples (eso lo hace cualquiera) que no sea capaz de alterar el programa fuente.
Si se empiezan a hacer androides con singularidad (la capacidad de ser conscientes de sí mismos y de su entorno) la historia es muy distinta. En ese caso el andride podrá alterar su propio programa reaccionando a los estímulos del entorno, por lo que se le debe dar una capacidad física limitada como la del ser humano, porque sino, así como hay grupos racistas entre humanos de distinto color y cultura es natural que haya autómatas que odien a los seres humanos, con grandes probabilidades que se de por el mal comportamiento de los humanos y una forma de pensar del tipo "Nosotros los creamos, deben ser nuestros esclavos" o algo similar. Creo que se debe tener cuidado si se llega a este punto. Hasta ahora he sabido de unos pocos científicos que han intentado sin éxito crear esa singularidad. A mí me gustaría lograrlo pero nada más con fines científicos, evitando a toda costa que esto provoque un problema. Si llegara a lograrlo (cosa que dudo) no liberaría ese software, ni lo pondría en venta por mucho que se me ofreciera, porque sé muy bien lo que eso podría significar, especialmente si viene el ejército yankee a comprar el source code a unos cuantos miles de milloncitos de dólares. Mejor crearía uno que otro androide, lo monitorearía todo el tiempo, y de ser posible lo haría lo más humano posible, eso evitaría que resalte demasiado, y si la gente sospecha no pasará de un rumor.
De hecho el caso del bicho del video... no parece ser de singularidad aunque aplica patrones de I.A. primitiva, tecnología que hoy existe, aunque claro, todavía es carne de laboratorio.