:25:02
Creo que no entiendo.
:25:04
¿Entiende que si esto se sabe
tendremos que retirar toda la línea?
:25:09
Estamos en hogares, señor,
donde hay niños.
:25:13
Si está haciendo eso,
también se le puede botar la canica.
:25:16
Uno no tiene canicas.
:25:21
Bueno, señor.
Si le doy a Andrew, ¿qué le hará?
:25:25
Lo desarmará, ¿verdad?
:25:27
Con cuidado, sí.
:25:28
Necesitaríamos rastrear
las trayectorias neurales de Andrew...
:25:33
...reemplazar el cerebro positrónico...
:25:37
...y volver...
:25:38
...a ensamblarlo y regresárselo,
como nuevo.
:25:44
Ahora, las trayectorias neurales
probablemente son frágiles.
:25:47
¿No es posible
que durante esos procedimientos...
:25:50
...se dañe al robot?
:25:53
Haríamos todo esfuerzo concebible.
:25:56
En caso de que se le ocasionara
un daño...
:25:59
...Uds., claro está,
lo reemplazarían.
:26:01
Por supuesto.
:26:03
A pesar de que
él es único e irremplazable.
:26:08
"Él".
:26:12
Es un error natural.
Tiene forma humana...
:26:15
...por lo tanto interpreta
una falla mecánica como excentricidad...
:26:19
...y la antropomorfiza.
:26:22
Es un artículo electrodoméstico...
:26:24
...pero Ud. actúa
como si fuera un hombre.
:26:27
Nos vamos. Ven, Andrew.
:26:29
Por favor piénselo otra vez.
Permítanos examinar a Andrew.
:26:33
Hable con su esposa.
¿Cuánto quiere?
:26:37
Escuche.
:26:38
La individualidad no tiene precio.
:26:41
Para bien o para mal,
él es mi robot...
:26:44
...y Ud. nunca le va a echar mano.
¿Entiende?
:26:50
Todo a su tiempo.
:26:51
Tarde o temprano, tendrá que traerlo
para reparaciones.