Textos para el tercer trimestre.
Texto 1: ¿Por qué el carbono y no el silicio?
Pincha
aquí
Texto
2: La nueva Fiebre del Oro:
Por P.
Roberto J. el
12 de diciembre de 2011. GENBETA
La
historia de descubrimiento del transistor es la historia de cómo los
pequeños detalles cambian el mundo.
Es también el punto de no-retorno, el quicio de entrada en la Era de
la Información, y por tanto un momento que ya se señala en los
libros. Y marca, además, la primera gran aplicación de la mecánica
cuántica: el momento en que lo que podría haberse considerado casi
esotérico pasan a estar en la palma de nuestra mano.
Es significativo que la palabra “transistor”
sirviese para nombrar también a las pequeñas radios que se podían
llevar de un lado a otro: pese a la importancia indudable para toda
la industria, la invención de aquel “fuego de cristal” caló
especialmente porque pudo aplicarse de manera directa sobre el gran
público de maneras muy diversas. Fue y aún es una tecnología hecha
para para cambiar la manera de vivir. Fue, claro, Historia.
De
hecho, dio origen a una nueva “fiebre del oro”, pero si
sustituimos ese metal por la fiebre por los semiconductores y lo que
podían producir, que culminó en la creación de Silicon Valley y
que dio origen de manera directa a todo lo que hoy vemos y vivimos en
Genbeta. Y, sin embargo, aunque nos encantan las leyendas, es
complicado acotar quién es el héroe de ésta:
la invención y creación del transistor fue producto de un gran
número de personas trabajando de manera independiente, haciendo
pequeños avances y accediendo a un conocimiento común. Todas esas
ideas, avances y accidentes desembocaron en “el mes milagroso”,
el que va de noviembre al 16 de diciembre de 1947, protagonizado por
Walter Brattain, John Bardeen y William Shockley.
Problemas que crean problemas
Vista aérea de Bell Labs
Antes
de la entrada en acción del extravagante
equipo que se formó en los Bell Labs,
hay que revisar por qué nació allí el primer transistor. Los Bell
Labs representaban el potencial investigador que salía de la
industria estadounidense. Eran la parte investigadora de AT&T, la
compañía que había conseguido convertirse en el gran gigante de la
telefonía. Pero AT&T tenía un problema grave: con las patentes
de Graham Bell a punto de finalizar, necesitaba un revulsivo para
mantenerse en cabeza y en posición dominante de su sector. La única
idea que se les presentaba como mágica era la de dar el salto del
Atlántico: conseguir las comunicaciones telefónicas transoceánicas.
Tras
hacerse con la patente del triodo de Lee De Forest, que funcionaba en
el tubo de vacío, AT&T lo mejoró al máximo, pero llegó un
momento en que vio que el límite estaba demasiado cerca y, sin
embargo, la solución a su problema seguía pendiente. El invento de
De Forest permitía la comunicación de larga distancia,
pero necesitaba
amplificadores fiables, cosa que los tubos de vacío no eran:
se calentaban demasiado, necesitaban demasiada energía y, en
definitiva, eran una solución poco eficiente para la compañía. Así
fue como los Bell Labs centraron a parte de sus equipos en la
investigación de los materiales semiconductores.
El equipo del primer transistor
Los miembros del Hell’s Bells
El
elegido para guiar la investigación fue William Shockley,
investigador que ya había demostrado su valía en el terreno de los
semiconductores en la II Guerra Mundial, donde éstos fueron claves
para el desarrollo del radar. Shockley había estado presente en las
investigaciones militares y, al ser elegido como líder del equipo
por Bell Labs, tuvo muy claro que quería perfiles muy distintos
trabajando a la vez, pero de manera independiente, en un objetivo
común.
Su
figura, la de Shockley, es posiblemente
la más controvertida de toda esta historia.
Fue parte indudable de la invención del transistor y, como tal, ganó
el premio Nobel junto a John Bardeen y Walter Brattain, pero sus
detractores han insistido en cómo el jefe del equipo se llevó un
mérito que no fue directamente suyo. Es cierto que Shockley no
intervino de manera directa en ese “mes milagroso” que dio origen
al primer transistor, pero minimizar su aportación implica olvidar
que fue él quien entendió inmediatamente las consecuencias de lo
creado por Bardeen y Brattain y que también fue Shockley uno de los
que, tras abandonar Bell Labs, dio origen a Silicon Valley
profundizado en lo creado en su anterior trabajo.
¿Por
qué se minimiza su labor? Sin duda, parte
de la culpa la tiene el propio Shockley,
que en la última época de su carrera se centró en investigaciones
sobre diferencias raciales demasiado cercanas a conceptos como la
eugenesia. También porque, en efecto y como veremos más tarde, el
movimiento que cambió la dirección de las investigaciones fue el de
Bardeen y éste no le comunicó a Shockley el cambio de enfoque.
Pero, pese a todo, es complicado querer borrar por completo su
influencia en un equipo que lideró.
Lo
que sucedió en ese
laboratorio, que los integrantes conocían como ‘Hell’s Bells’,
tiene bastante que ver con la lucha de egos, claro, y está muy bien
relatada en ‘Crystal Fire’, un gran libro de Michael Riordan y
Lillian Hoddeson sobre la invención del transistor. La otra cara de
la moneda, la de Shockley y su intervención en el transistor, podéis
leerla a fondo en ‘Broken Genius’ (ambos sin traducción al
Español).
Un mes para cambiar el mundo
El primer transistor de la Historia
Shockley
se trajo a su equipo a Bardeen y Brattain con una única idea: en
1945, había desarrollado un primer amplificador con materiales
semiconductores,
pero su pequeño cilindro no llegó a funcionar correctamente. Pese a
que muchos consideraban la idea una locura, Shockley decidió que lo
único que había que hacer era saber por qué y en qué fallaba: esa
sería la tarea de Bardeen y Brattain.
Los
dos científicos tenían perfiles muy diferentes: Bardeen
era el teórico,
el que apuntaba de manera impredecible causas y soluciones. Brattain,
por su parte, se ocupaba de construir en
el laboratorio los experimentos que pondrían a prueba las ideas de
Bardeen. No era sencillo: los choques de opinión eran constantes,
especialmente durante el mucho tiempo en el que no hubo avance
alguno.
El
17 de noviembre de 1947, sin embargo, algo cambió:
para ahorrarse tiempo, Brattain decidió sumergir su invento en agua…
y consiguió hacerlo funcionar, brevemente. Suficiente para que
Brattain descubriera que los electrones no funcionaban de la forma en
que todo el mundo pensaba que lo hacían y que había formas de que
la barrera que bloqueaba la amplificación desapareciese.
Durante
un mes, Bardeen y Brattain fueron probando distintas soluciones
sin consultar a Shockley el camino que habían tomado.
Sin embargo, los experimentos no conseguían desbloquear otro de los
grandes problemas: el equipo de Bell Labs conseguía amplificar, pero
sólo aquello de frecuencias muy bajas, así que no le serviría a
AT&T, la compañía que, después de todo, financiaba sus
experimentos. La solución final al problema fue consecuencia de un
error: Brattain quería probar un nuevo experimento con dióxido de
germanio, pero resultó que, por accidente, había eliminado
cualquier rastro de óxido del metal. Pese a considerarlo inútil,
Brattain probó a usarlo, descubriendo así que de esa manera podían
lograr amplificar todas las frecuencias.
La
combinación de todos esos experimentos culminó,
el 16 de diciembre de 1947, en el primer amplificador de punto de
contacto.
Cuando Shockley vio los resultados no pudo sino obsesionarse: se pasó
toda la Nochevieja y los dos primeros días de 1948 diseñando un
transistor que mejorase el de Brattain y Bardeen. No llegó a ninguna
conclusión, pero continuó trabajando en sus ideas durante enero y
gran parte de febrero de ese, mientras los abogados de Bell Labs le
amenazaban con dejarle fuera de la patente y de toda la
responsabilidad en la creación del transistor. Antes de que eso
ocurriera, el científico presentó a todo el equipo su “transistor
sandwich”, con tres capas de semiconductores. Bell Labs tenía por
fin la solución que quería y Shockley, el crédito que merecía.
Consecuencia de un buen uso de la electrónica
A la derecha del todo, la primera radio
transistor
El
mundo pudo haber sido muy distinto si
el ejército de EEUU hubiese decidido clasificar la
invención de
Bell Labs. Tuvo la oportunidad, porque la compañía decidió
presentárselo a ellos antes que a nadie. Pero, afortunadamente, los
militares no tomaron ninguna decisión en firme y la compañía,
consciente de la importancia de lo descubierto, dio una rueda de
prensa para anunciarlo. Necesitaban un nombre y John Pierce,
científico de la compañía que en su tiempo libre escribía ciencia
ficción, dio con el de “transistor” Y, a partir de ahí, el
mundo cambió.
El
primer producto de uso directo por
parte del consumidor que usó un transistor fue un
sonotone.
Pero no tardó en aparecer quien se interesara en algo más allá. Y,
curiosamente, llegó de fuera de EEUU: mientras la industria
electrónica de este país se centraba en los usos militares del
invento, fueron los japoneses Masaru Ibuka y Akio Morita quienes
vieron el negocio definitivo: fundaron Sony y se especializaron en
producir pequeñas radios portátiles. Los “otros” transistores.
El
resto es historia. Gracias a la miniaturización que permitió el
descubrimiento del transistor se desarrolló la informática. El
propio Bill Gates señaló no hace mucho que el PC no hubiera sido
posible sin el invento de Bell Labs. El
transistor y su aplicación en electrónica de consumo dio vida a la
Era de la Información y
a la expansión de la cultura juvenil a finales de los 50. Decíamos
que hizo historia, sí, incluida esa parte que explotó a finales de
los 50: sin él (y sin Sony, como Ian Ross, presidente de Bell Labs,
reconoció), no habría sido posible la revolución pop, el
rock’n‘roll, y el estilo de vida de una generación dispuesta a
consumir.
Google, Facebook, Yahoo, Intel, Cisco, Linkedin y otras grandes empresas tecnológicas tienen oficinas en este “parque tecnológico”
¿Por qué se llama Silicon Valley?
Fue el
periodista Don Hoefler el que, en el año
1971, popularizó la expresión Silicon Valley al
utilizarla como título de una serie de artículos semanales en el
periódico Electronic News.
En 1953 un antiguo
californiano decidió mudarse allí. William Shockley, quien había
abandonado Bell Labs por un desacuerdo sobre la forma en que se había
presentado el transistor al público, ya que debido a los intereses
de patentes, se relegó su nombre a un segundo plano en favor de los
coinventores John Bardeen y Walter Houser Brattain.
William Shockley inventó el transistor
Tras divorciarse de
su mujer, volvió al Instituto de Tecnología californiano donde se
graduó en Ciencias, pero se trasladó a Mountain View para crear la
empresa Shockley Semiconductor como parte de Beckman Instruments y
vivir más cerca de su madre.
A diferencia de
otros investigadores que utilizaban germanio como material
semiconductor, Shockley creía que el silicio era un mejor material
para fabricar transistores. Shockley se propuso mejorar el transistor
con un diseño de tres elementos (hoy se le conoce como el diodo
Shockley) que obtendría éxito comercial, pero cuyo diseño era
considerablemente más difícil de construir que el diseño
convencional.
A medida que el
proyecto pasó por varias dificultades, Shockley se volvió cada vez
más paranoico. Exigió que los empleados se sometieran a un detector
de mentiras, anunció sus salarios públicamente y, en general, se
enemistó con todo el mundo, y en 1957, Shockley decide finalizar el
trabajo relacionado con el transistor de silicio, todos factores que
ayudaron a que en 1957, ocho de los ingenieros más brillantes, que
él mismo había contratado, lo abandonaran para formar la compañía
Fairchild Semiconductor.
Google Campus en Mountain View
Shockley los
llamaba los “ocho traidores”. Dos de los empleados del grupo
original de Fairchild Semiconductor, Robert Noyce y Gordon Moore, a
su vez luego fundarían Intel.910
Durante los años
siguientes este hecho se repetiría varias veces; a medida que los
ingenieros perdían el control de las compañías que crearon al caer
en manos de directivas exteriores, las abandonaban para formar sus
propias empresas. AMD, Signetics, National Semiconductor e Intel
surgieron como vástagos de Fairchild o, en otros casos, como
vástagos de vástagos.
A comienzos de
1970, toda la zona estaba llena de compañías de semiconductores que
abastecían a las compañías de computadores y estas dos, a su vez,
a las compañías de programación y servicios. El espacio industrial
era abundante y el alojamiento aún barato.
El crecimiento se
vio potenciado por el surgimiento de la industria de capitales de
riesgo en Sand Hill Road que fundó Kleiner Perkins en 1972; la
disponibilidad de estos capitales estalló tras el éxito de 1300
millones de dólares por la OPA (oferta pública de acciones) de
Apple Computer en diciembre de 1980.
Google tiene
un enorme complejo de edificios en Silicon Valley –conocido como
GooglePlex-, en la puerta de cada uno hay bicicletas que se utilizan
para ir de un edificio a otro.
Intel,
el mayor fabricante de procesadores y líder en innovación, también
tiene centros de investigación y desarrollo en el valle, donde se
diseña la tecnología que está por venir.
Cisco,
líder mundial en redes para Internet, tiene una gran cantidad de
edificios en Milpitas, una de las ciudades del Valle.
Facebook sorprende
con dos edificios en piedra que sólo se encuentran si uno tiene la
dirección, ya que no tienen el nombre de forma visible y pasan muy
desapercibidos.
Yahoo, Linkedin, Microsoft, HP, McAffee y
varias empresas tech con trayectoria y también nuevas, tienen
edificios en Silicon Valley.
Compañías
renombradas
Ebay. Adobe en San
José. Intel en Santa Clara. Yahoo en Sunnyvale. Google Campus en
Mountain View.
No pocas empresas de alta tecnología han establecido sus sedes en Silicon Valley; la siguiente lista son algunas de las que figuran en Forbes 500:
No pocas empresas de alta tecnología han establecido sus sedes en Silicon Valley; la siguiente lista son algunas de las que figuran en Forbes 500:
Adobe Systems |
Agilent | Altera | AMD | Apple Inc. | Applied Materials | BEA Systems
| Cadence Design Systems | Cisco Systems | Ebay | Electronic Arts|
Google | Hewlett-Packard | Intel | Intuit | Juniper Networks | Nokia
| Maxtor | Microchip Technology Inc. | National Semiconductor |
Network Appliance | Nimsoft | Oracle Corporation | Siebel | Sun
Microsystems | Symantec | Synopsys | Veritas Software | Yahoo! |
Informatica Corporation | Tesla Motors
Otras
compañías famosas con sede también en el Silicon Valley:
Adaptec | Alphabet
Inc. | Atmel | Cypress Semiconductor | Facebook | Flextronics |
Handspring | Intermedia.NET | Kaboodle | McAfee | NVIDIA Corporation
| Infolink | Palm, Inc. | PayPal | Rambus | Silicon Graphics | Tivo |
Twitter | Verisign
Universidades
Universidad de Berkeley — No está realmente ubicada en el “Silicon Valley”, sino del lado opuesto de la Bahía de San Francisco, pero es muy renombrada por los recursos dedicados a la investigación, y sus graduados.
Universidad Estatal de San José. Universidad de Santa Clara. Universidad de Stanford. San Jose City College — Universidad comunitaria
Universidad de Berkeley — No está realmente ubicada en el “Silicon Valley”, sino del lado opuesto de la Bahía de San Francisco, pero es muy renombrada por los recursos dedicados a la investigación, y sus graduados.
Universidad Estatal de San José. Universidad de Santa Clara. Universidad de Stanford. San Jose City College — Universidad comunitaria
Texto
3: Resolución de problemas difíciles.
Computación basada en ADN
- |
La maravilla de la interdisciplina es que permite conectar mundos que normalmente no se ven.
A
finales de los 80 y principios de los 90 del siglo pasado, Leonard
Adleman, matemático y experto en cómputo, tenía como una de sus
líneas de investigación fenómenos relacionados con el SIDA. Según
sus propias palabras, para poder tener más credibilidad entre la
comunidad científica del tema decidió estudiar a fondo la biología
del virus. Para eso tuvo que pisar el laboratorio y aprender biología
molecular. Ahí conoció los detalles de cómo el funcionamiento de
la vida se basa en procesar información almacenada en la molécula
de ADN (Ácido desoxirribonucleico). Pero sus ojos de computólogo lo
llevaron a ver los mecanismos con los que los seres vivos procesan y
almacenan la información genética, como pequeñas computadoras. Y
mejor aún, pensó en un ingenioso modo para utilizar esos mecanismos
y resolver problemas matemáticos complejos.
La molécula de ADN está formada por una serie de moléculas más pequeñas llamadas nucleótidos.
La
molécula de ADN está formada por una serie de moléculas más
pequeñas llamadas nucleótidos, unidas en forma de cadena. Hay
cuatro diferentes nucleótidos denominados por las letras A, T, C y
G, que pueden ordenarse de cualquier manera para formar largas
cadenas de ADN, por ejemplo GCTATCGACGT. La información biológica
está guardada en este tipo de cadenas de forma análoga a las
cadenas de ceros y unos (00110101110011) con las que guarda la
información una computadora digital. El mecanismo que los organismos
vivos tenemos para leer y usar esa información es a través de
pequeñas moléculas que funcionan como nanomáquinas, capaces de
actuar sobre las cadenas de ADN. La más importante de esas moléculas
es la enzima ADN-Polimerasa. Esta molécula es capaz de leer una
cadena de ADN y generar su cadena complementaria basándose en las
reglas de apareamiento de nucléotidos de Watson y Crick: el
nucléotido C es complementario con el G, mientras que el A lo es con
el T. Cuando la ADN-Polimersa encuentra un nucleótido en la cadena
original, coloca su complementario en la cadena complementaria. De
este modo, la cadena complementaria de la cadena del párrafo
anterior sería CGATAGCTGCA.
En
el sentido más amplio del concepto, una computadora es algo mucho
más general que un dispositivo electrónico que sirve para procesar
datos, editar documentos y navegar por internet. Cualquier sistema
que sea capaz de transformar información de entrada en información
de salida aplicando una serie de reglas (un algoritmo) es considerada
una computadora. La base de esta definición es la famosa Máquina de
Turing: una pequeña máquina con dos brazos. Con uno de ellos lee,
uno a uno, los símbolos impresos en una larga banda, y con el otro
imprime en otra banda el resultado de aplicar a cada símbolo leído
una serie de reglas de procesamiento (un algoritmo) con las cuales ha
sido configurada la máquina. La Máquina de Turing es muy simple
pero su esencia es la misma que la de cualquier computadora,
analógica o digital, por compleja que ésta sea; es una
conceptualización muy general de una computadora que por su simpleza
y generalidad ha sido muy importante para el estudio teórico de las
ciencias computacionales.
los avances en la biología molecular todavía no nos permiten diseñar moléculas como la ADN-Polimerasa.
Cuando
Adleman aprendió el modo en que opera la ADN-Polimerasa no pudo
verla sino como una nano-Máquina de Turing, programada para crear
cadenas complementarias de ADN. Inmediatamente comenzó a pensar cómo
lograr que esa computadora biológica hiciera otro tipo de
operaciones computacionales. Sin embargo, los avances en la biología
molecular todavía no nos permiten diseñar moléculas como la
ADN-Polimerasa para que actúen sobre el ADN con las reglas que
nosotros queremos: la ADN-Polimerasa es el resultado de millones de
años de evolución. Así es que Adleman tuvo que conformarse con los
elementos disponibles en la biología molecular para pensar en alguna
forma de hacer cálculos computacionales basados en ADN.
Además
de la ADN-Polimerasa hay otras moléculas (nano-máquinas) capaces de
operar sobre las cadenas de ADN, como por ejemplo, uniéndolas (la
ADN-ligasa) o cortándolas (la ADN-nucleasa). Aunado a esto, la
biología molecular ha desarrollado técnicas para crear cualquier
cadena de ADN que uno quiera o para separarlas según su tamaño.
Echando mano de todos estos elementos, Adleman fue capaz de traducir
un problema matemático en cadenas de ADN y resolverlo a través de
un algoritmo basado en reacciones bioquímicas e ingeniosas
manipulaciones moleculares en el laboratorio. Es decir, inventó la
computación basada en ADN.
El
problema matemático que Adleman decidió resolver con su computadora
bioquímica fue una versión especial del problema del viajero, un
problema de optimización relacionado con encontrar el camino óptimo
para visitar un cierto número de ciudades pasando por cada una de
ellas únicamente una vez. El problema del viajero es un problema
computacionalmente “muy difícil” y al resolverlo, Adleman no
sólo mostró la posibilidad de realizar operaciones computacionales
basadas en ADN, sino que puso en evidencia que la naturaleza de su
computadora bioquímica es el cómputo en paralelo, es decir, la
realización simultánea de muchas operaciones, en contraste con el
cómputo en serie de las computadoras digitales, en donde las
operaciones se realizan una después de otra. El cómputo en paralelo
potencia por mucho las capacidades de una computadora. La tendencia
actual en la computación digital es usar cada vez más el cómputo
en paralelo; de ahí el desarrollo de procesadores de varios núcleos
o el repunte del cómputo científico basado en tarjetas de video
(GPU’s).
Pero,
¿qué quiere decir que un problema sea computacionalmente difícil?
Las ciencias computacionales clasifican los problemas que pueden
resolverse con una computadora de acuerdo al número de operaciones
que deben realizarse para obtener la respuesta y cómo crece ese
número al aumentar la cantidad de variables del problema: si el
número de pasos aumenta polinomialmente se dice que el problema es
fácil y se le clasifica como problema tipo P (polinomial). Por otro
lado, si la solución a un problema es fácilmente verificable, es
decir, el proceso de verificación crece polinomialmente con la
cantidad de variables, entonces se le clasifica como problema tipo NP
(Non-deterministic polynomial). Por ejemplo, separar por colores un
conjunto de piezas Lego es un problema fácil. El algoritmo sería:
1) se toma la pieza; 2) se detecta el color; 3) se coloca en el
recipiente del color correspondiente. Si hay X piezas, el problema
queda resuelto en 3X pasos. Si hay el doble de piezas, 2X, entonces
el número de pasos es también el doble: 3*2X = 6X. Es decir, el
número de pasos crece linealmente, que es un polinomio de orden 1.
Separar por colores es entonces un problema tipo P, pero también es
un problema NP porque verificar que las piezas estén separadas
correctamente es fácil. En cambio, armar un rompecabezas es un
problema NP, porque una vez que está armado es fácil ver que esté
armado correctamente, pero no es un problema tipo P. Para que una
computadora pudiera armar un rompecabezas, prácticamente debería
probar todas las piezas unas contra otras para saber cuáles embonan
correctamente. Si el rompecabezas tiene X piezas el número de pasos
necesarios es X factorial, es decir, X*(X-1)*(X-2)*….*4*3*2*1. Si X
= 10, el número de pasos sería 3,628,800; si X = 20 se necesitarían
2.4×1018 pasos
(¡2.4 seguido de 18 ceros!). Con tal tasa de crecimiento del número
de pasos necesarios en el algoritmo al aumentar el número de piezas,
el problema se vuelve inmanejable en términos prácticos muy
rápidamente.
¿Será que todo problema NP es también P?
En
1971, Stephen Cook demostró que todo problema tipo P es también NP.
Una vez probado esto, surge de manera natural la pregunta, ¿será
que todo problema NP es también P? La pregunta parece ingenua: el
problema del rompecabezas es claramente NP, pero no parece ser fácil
de armar para una computadora. Así es que la respuesta a la pregunta
parece ser un obvio y contundente NO y debería de ser fácil para un
matemático demostrarlo formalmente. Pues no es así. El problema P
versus NP es el problema teórico sin resolver más importante de las
ciencias computacionales. De hecho, es uno de los Siete Problemas del
Milenio, por los que el Clay Mathematics Institute ofrece un millón
de dólares, por cada problema, a quien los resuelva.
Mostrar
que todo problema P es también NP no es difícil. Lo verdaderamente
valioso del trabajo de Cook de 1971 [1]fue
que demostró que dentro del conjunto de problemas NP, existe otra
clasificación de problemas llamados NP-completos. Este tipo de
problemas tienen dos propiedades interesantes: 1) todo problema NP
puede ser mapeado o traducido a uno NP-completo, por lo que si
alguien encuentra un algoritmo fácil para resolver uno de estos
problemas, entonces todo problema NP sería fácil y P sería igual a
NP; 2) todos los problemas NP-completos descritos hasta ahora son
difíciles, es decir, los algoritmos para resolverlos crecen
exponencialmente al aumentar las variables. Cook demostró que todo
problema NP puede ser traducido a una “oración lógica” del tipo
[(a o b ) y (c o d)] en donde las letras a, b, c y d puede tomar los
valores verdadero o falso y están unidas por los operadores “y”,
“ó”, “no”. Si hay una combinación de verdaderos y falsos
que haga que la oración total sea verdadera, entonces la oración
tiene solución (“satisfiable” en inglés). Si no existe tal
combinación, y la oración siempre es falsa, entonces no tiene
solución. Encontrar si una oración de este tipo tiene o no solución
se le conoce como un problema tipo SAT (abreviación de
“satisfiability” en inglés): (a y no b) tiene solución; (a y no
a) no tiene solución.
Muchos problemas cotidianos son del tipo NP-completo.
El
ejemplo del rompecabezas es un problema NP-completo. Y no es el
único. Muchos problemas cotidianos son de este tipo: asignar pilotos
y tripulación a aviones de una compañía aérea, distribuir víveres
en una zona de desastre, sincronizar semáforos, acomodar la mayor
cantidad de cajas de diferentes tamaños en un camión, jugar tetris,
y un largo etc. Pero la relevancia de P vs NP no solo radica en lo
cotidiano de estos problemas. Mientras no se demuestre que P es
diferente de NP existe la posibilidad de que todos los problemas
computacionales puedan ser fáciles de resolver para una computadora,
lo cual tendría consecuencias enormes: la capacidad de cómputo de
nuestras máquinas sería mucho mayor del límite que actualmente
parecen tener, además de que pondría a todo el comercio y bancos en
graves problemas dado que sus medidas de seguridad están basadas en
problemas de criptografía NP-difíciles.
Adleman
resolvió con su computadora bioquímica el problema de determinar si
es posible visitar siete ciudades conectadas por catorce vuelos
directos pasando únicamente una vez por cada ciudad. Como dijimos,
este tipo de problemas son difíciles de resolver computacionalmente,
pero únicamente cuando se quiere visitar muchas ciudades. Cuando
solo son siete, entonces la solución se encuentra rápidamente,
incluso sin usar una computadora. Pero Adleman sólo quería
demostrar que resolver el problema era posible, y usar más ciudades
habría implicado mucho más trabajo en el laboratorio.
El trabajo de Adleman motivó a otros investigadores a resolver problemas difíciles usando computadoras moleculares.
El
trabajo de Adleman motivó a otros investigadores a resolver
problemas difíciles usando computadoras moleculares. En el año
2000, Q. Liu y colaboradores reportaron haber resuelto el más
difícil de los problemas NP, el problema 3-SAT, usando cómputo
basado en ADN. En ese trabajo los autores mostraban que podían
resolver un problema 3-SAT usando un algoritmo que crece
polinomialmente con el número de variables del problema si no se
consideran los pasos para crear las cadenas de ADN necesarias al
inicio del proceso. ¿Un problema NP-completo resuelto por un
algoritmo polinomial? ¿Había demostrado el cómputo basado en ADN
que NP = P? Todavía no. El algoritmo de Q. Liu et al. era polinomial
si no se consideraban los pasos iniciales de fabricación de las
cadenas de ADN, pero no estaba claro cómo evaluar la complejidad de
esos pasos iniciales. Los autores sugerían que, aunque en ese
momento no había las herramientas necesarias para hacer ese paso
inicial lo suficientemente sencillo para resolver problemas de más
variables, esas herramientas ya estaban en proceso de desarrollarse y
no tardarían mucho en estar listas.
El cómputo basado en ADN no es viable para resolver problemas tipo SAT
Pero
no todos compartían su optimismo. En el mismo número de la revista
Nature en que fue publicado el trabajo de Q. Liu y colaboradores, M.
Ogihara y A. Ray cuestionan que la síntesis inicial de cadenas de
ADN sea un proceso fácil en el sentido computacional de la palabra.
Y no sólo la síntesis inicial de cadenas de ADN es un problema,
también lo es el “ruido” intrínseco del proceso: el material
que no logra separarse perfectamente en los pasos del algoritmo o la
interacción de cadenas de ADN que no son perfectamente
complementarias pero que se parecen mucho, son fuentes de error que,
aunque pequeñas, imponen un límite al tamaño de problemas
difíciles que pueden resolverse con esta técnica. De hecho, ya se
ha demostrado que debido a este ruido, el cómputo basado en ADN no
es viable para resolver problemas tipo SAT mejor que una computadora
digital.
Pero
esto no quiere decir que el cómputo basado en ADN no sea útil. M.
Ogihara y A. Ray fueron visionarios no sólo por dudar de la
capacidad del cómputo basado en ADN para resolver problemas
difíciles, sino también por proponer que el mayor potencial de esta
herramienta está en que para ciertas aplicaciones, puede ser muy
útil que un dispositivo bioquímico realice operaciones
computacionales de manera autónoma sin necesidad de estar conectado
a una computadora digital. Por ejemplo, uno pudiera pensar en un
dispositivo médico implantado dentro del organismo que pudiera
determinar a partir de operaciones computacionales bioquímicas la
necesidad de liberar fármacos en función de las necesidades
inmediatas del organismo. Actualmente esto todavía no es una
realidad, pero hacia allá apunta la investigación y el desarrollo
en esta área y ya hay avances importantes. A pesar de sus
limitaciones, la computación basada en ADN no deja de tener
características que pueden ser muy útiles para desarrollar
aplicaciones biomédicas: capacidad de almacenamiento de mucha
información de manera muy condensada (la información genética
almacenada en las células es la máxima expresión de esa
capacidad); su enorme capacidad de realizar operaciones
computacionales de forma simultánea (computación en paralelo); cada
operación realizada con ADN requiere menos energía que si se
realiza con una computadora convencional (eficiencia energética).
Han
pasado veinte años desde el nacimiento del cómputo basado en ADN y
todavía la comunidad científica no termina de entender su verdadero
potencial y sus limitaciones. El tiempo ha mostrado que la
computación basada en ADN no resolverá el problema P vs NP, pero la
idea de Adleman no deja de ser genial. Como él mismo señaló en su
momento, su experimento se enmarca dentro del florecimiento de un
joven campo del conocimiento que une a las ciencias computacionales
con la biología molecular y que promete sorprendentes
descubrimientos y aplicaciones. Lo mejor está por venir… a
nous de jouer! C2
Texto
4: Cerebros de silicio
Cerebros de silicio
Ray
Kurzweil calcula que en pocas décadas habrá máquinas más
inteligentes que nosotros y que podrán existir mentes conscientes no
biológicas
RAÚL
GAY
9
DE MARZO DE 2016
Ray
Kurzweil
Prólogo de José Luis Cordeiro
Traducción de Carlos García Hernández
Lola Books 2013
321 páginas
Prólogo de José Luis Cordeiro
Traducción de Carlos García Hernández
Lola Books 2013
321 páginas
Ray
Kurzweil puede ser uno de los mejores científicos e inventores de la
actualidad. Puede ser un buen escritor de ciencia ficción. O puede
ser el hombre que profetiza y nos lleva al transhumanismo, un mundo
en el que conviven humanos y máquinas inteligentes.
A
los cinco años decidió que quería ser inventor y lo ha conseguido.
Sus empresas han diseñado ordenadores que componen música,
reconocedores de voz (Siri se basa en sus tecnologías), escáner de
ordenador, programas que leen texto escrito (útil para ciegos),
sintetizadores… Posee una fortuna de 27 millones de dólares, toma
150 pastillas al día para retrasar el envejecimiento y en sus libros
ha predicho avances tecnológicos que parecían imposibles en su
momento: la popularización de Internet, las revueltas ciudadanas
apoyadas por la tecnología, Deep Blue ganando la ajedrez, los coches
sin conductor, el ebook…
Para
ello, trabaja con la Ley de Rendimientos Acelerados, bautizada por él
mismo, que explica la evolución exponencial de las tecnologías de
la información (una ampliación de la conocida Ley de Moore sobre la
capacidad de los chips). Su trabajo reciente se centra en la
Inteligencia Artificial y Google lo ha contratado para construir un
sistema de inteligencia artificial. Calcula que en pocas décadas
habrá máquinas más inteligentes que nosotros (la llamada
Singularidad) y podrán existir mentes conscientes no biológicas. De
esto último trata su libro Cómo
crear una mente,
publicado en España (muy mal editado, por cierto) por Lola Books.
Kurzweil
comienza con un repaso a la evolución del ser humano y su cerebro,
recordando que somos información, ni más ni menos. Somos cadenas de
ADN que contienen información genética transmitida, modificada y
ampliada generación tras generación. Nuestros cerebros crean y
contienen información y hemos diseñado tecnologías que se basan,
precisamente, en unos y ceros. Esta tecnología es cada vez más
compleja y se crea más rápido: costó miles de años descubrir la
máquina a vapor, pero pocas décadas pasar de ella a Internet. El
siguiente paso es nuestro cerebro: saber exactamente cómo funciona,
cómo repararlo y cómo crear máquinas que lo imiten.
Para
ello, es necesario saber cómo funciona el pensamiento. En resumidas
cuentas: con patrones. El clásico ejemplo de una palabra mal escrita
o a la que le faltan letras y todos la entendemos. El cerebro ve
señales, las enlaza con otras anteriores, busca un patrón y rellena
los huecos. Esto es gracias al neocórtex, lo que realmente nos
diferencia de otros seres vivos.
Una
especie sin neocórtex puede tardar una enorme cantidad de
generaciones en aprender nuevos comportamientos de importancia. La
ventaja fundamental que conllevó el neocórtex en lo que se refiere
a la supervivencia fue que podía aprender en cuestión de días. Si
una especie se encuentra en circunstancias que han cambiado
drásticamente y un miembro de dicha especie inventa, descubre o
simplemente se topa con una manera de adaptarse a dicho cambio, otros
individuos se darán cuenta de ello, procediendo aprender y copiar
dicho método, que rápidamente se es partida como una plaga por toda
la población.
¿Qué
estructura tiene este neocórtex? Pues después de muchos estudios,
se ha descubierto que se parece mucho a la de un chip. Es una de las
claves de la teoría de Kurzweil: si, como se dice popularmente, el
cerebro es un ordenador, un ordenador puede llegar a ser como un
cerebro. Y sugiere que en un futuro podremos tener un neocórtex
compartido, igual que hoy compartimos documentos, fotos y música en
la nube.
Algunas
personas se muestran preocupadas sobre lo que le pasará a aquellos
que opten por rechazar una expansión de la mente de estas
características. Al respecto yo señalaría que esta inteligencia
adicional residirá fundamentalmente en la nube, donde la mayor parte
de la inteligencia de nuestras máquinas ya está almacenada. Cuando
utilizamos un buscador, usamos un sistema de reconocimiento del habla
en nuestro teléfono móvil, consultamos un asistente virtual como
Siri o usamos nuestro teléfono móvil para traducir un signo en otra
lengua, la inteligencia no reside en el propio dispositivo, sino en
la nube. Ahí también se hospedará nuestro neocórtex expandido. El
que accedamos a dicha inteligencia a través de la conexión neuronal
directa o de la forma que lo hacemos ahora es una distinción
arbitraria. Ya hemos estado organizando en la nube gran parte de
nuestra memoria personal, social, histórica y cultural, y en último
término lo haremos también con nuestro pensamiento jerárquico.
Kurzweil
repasa los proyectos en marcha para replicar cerebro de animales en
forma digital. Se calcula que en menos de una década existirá un
simulador de cerebro humano construido con microchips. Entre los
proyectos de inteligencia artificial exitosos, cita sus programas de
reconocimiento de voz (que han dado paso a Siri y Google Voice), Deep
Blue y la partida de ajedrez y Watson ganando a Jeopardy! Estos
proyectos de inteligencia artificial en diferentes campos no hacen
más que crecer: asistentes virtuales, coches sin conductor, la web
semántica, los programas de reconocimiento de voz...
Estamos
rodeados de inteligencia artificial y ya no tenemos la mano puesta
sobre el enchufe. El simple hecho de contactar con alguien a través
de un mensaje de texto, de un email o de una llamada de teléfono
móvil implica el uso de algoritmos inteligentes que enrutan la
información. Casi todos los productos a nuestro alcance están
originariamente diseñados mediante la colaboración entre la
inteligencia humana y la artificial, y después son construidos en
fábricas automatizadas. (...) Si mañana todos los sistemas de
inteligencia artificial decidieran hacer huelga, nuestra civilización
se vería incapacitada. Por fortuna, nuestras inteligentes máquinas
no son todavía lo suficientemente inteligentes como para organizar
una conspiración así.
Kurzweil
escribe sobre la frontera entre biología y filosofía. Se pregunta
si la clave para la inteligencia artificial no será la inteligencia
en sí (velocidad, memoria…), sino la consciencia. ¿Y qué es la
consciencia? Difícil definirla... Científicos y filósofos debaten
desde hace décadas y no hay una respuesta clara, sólo metáforas y
circunloquios. Kurzweil argumenta que la ciencia busca lo objetivo y
la consciencia es lo más subjetivo que existe. Por eso escapa a la
definición. ¿Cómo saber si algo es consciente? Kurzweil ofrece un
concepto: qualia. Wikipedia lo define como “las cualidades
subjetivas de las experiencias individuales. Por ejemplo, la rojez de
lo rojo, o lo doloroso del dolor”. Así, avanza que en un futuro
este concepto será capital para diferenciar una máquina normal de
una máquina consciente.
Imagínese
que usted se encuentra con una entidad futura (un robot o un avatar),
que es absolutamente convincente lo que se refiere a sus reacciones
emocionales. Se ríe convincentemente de sus chistes y además le
hace reír y llorar. Le convence de su sinceridad al hablar de sus
miedos y anhelos. Parece consciente en todas sus formas. De hecho,
tiene el aspecto de una persona. ¿Aceptaría usted a esta entidad
como si fuera una persona consciente?
Si
en un futuro hay máquinas conscientes, ¿tendrán derechos, como los
animales? ¿Por qué un perro tiene mas derechos que una hormiga?
Porque vemos consciencia en él. ¿Habrá máquinas con derechos y
máquinas sin derechos? ¿Seguiremos considerándolas máquinas?
Faltan
muchos años para que algunas de las ideas propuestas en este libro
se cumplan. Pero lo cierto es que las tecnologías de la información
avanzan cada vez más rápido y la última frontera de la ciencia,
como suele decirse, es nuestro cerebro.
Cómo
crear una mente es
un libro fascinante (aunque a veces difícil de seguir para los que
no somos expertos en la materia) que ofrece preguntas y lanza
hipótesis muy interesantes sobre la mente y la posibilidad de tener
máquinas inteligentes en un futuro. Blade
Runner puede
no estar muy lejos.
AUTOR
Raúl Gay
Periodista.
Ha trabajado en Aragón TV, ha escrito reseñas en Artes y Letras y
ha sido coeditor del blog De
retrones y hombres en eldiario.es.
Sus amigos le decían que para ser feliz sólo necesitaba un libro,
una tostada de Nutella y una cocacola. No se equivocaban.
Texto
5: La casa del futuro
BIENVENIDOS
A LA CASA MÁS INTELIGENTE DEL MUNDO.
Esta casa habla con sus habitantes, conoce sus costumbres y sabe cómo complacerlos. Un auténtico mayordomo, discreto y eficaz, al que no hay que dar ninguna indicación. Él sabe lo que hay que hacer. Esta vivienda anuncia un futuro muy próximo e inquietante que no tiene nada que ver con que su nevera esté conectada a Internet. Se lo contamos. Por Manfred Fworschakl
En
medio de un bosque, a media hora en coche de Seattle, se alza una
casa encantada. Habla con sus habitantes y satisface todos sus deseos
con solo escucharlos. Su dueño dice que es la
casa más inteligente del mundo.
Se
trata de Ian Mercer. La casa le avisó hace rato de la llegada de sus
invitados. La casa vigila todo lo que se mueve a su alrededor. Hay
sensores en puertas y ventanas, debajo de la tarima y en la carretera
de acceso.
Mercer
vive aquí con su esposa, dos hijos, tres perros y seis caballos. A
simple vista, nada delata que por dentro de las paredes de esta
vivienda típica de la clase alta norteamericana corran innumerables
cables que confluyen en el sótano. Allí zumba el cerebro de
esta casa
inteligente: el
ordenador que controla la calefacción, la ventilación y las luces.
Otros cables llevan hacia los altavoces, situados en todas las
habitaciones y a través de los cuales la casa se comunica con sus
habitantes. Pero ahora reina el silencio. “La casa sabe que no
debe asustar a los invitados sin motivo”, dice
Mercer, como si tanta consideración por parte de una casa fuese lo
más normal.
Este
hombre lleva una década trabajando en la automatización de su
vivienda. Es el pionero de una revolución doméstica que ya ha
comenzado: en breve, nuestros electrodomésticos abrirán los ojos a
una vida inteligente.
Para
muchos tecnoadictos, el milagro será posible gracias a los chips
conectados a Internet con los que contarán todos los aparatos. Es el
denominado ‘Internet
de las cosas’. Pero
Mercer no espera mucho de esta nueva fiebre. “Muchos de estos
dispositivos o no hacen falta -dice- o acaban poniéndote de los
nervios”. Él prefiere encaminar sus esfuerzos a algo más
práctico: lograr que esta especie de geniecillos domésticos tengan
una utilidad real y no solo sirvan para impactar a los invitados.
Mercer
tiene el dinero, la paciencia y los conocimientos necesarios para
conseguirlo. Su empresa, Nextbase, sacó a finales de los ochenta un
exitoso programa de navegación para PC. Luego se pasó a Microsoft,
y bajo
su dirección nacieron programas como el software de
edición de vídeo Movie Maker. Pero
el sueño de la smarthome no
tardó mucho en convertirse en su verdadera pasión. Cree que lo que
él está construyendo es el prototipo
de la casa del futuro.
El
mayordomo del siglo XXI
Todo
empieza con el manejo del sistema. “Tiene que ser simple y lógico,
natural explica Mercer, como dirigirse a un mayordomo para decirle lo
que tiene que hacer”. Coge su smartphone y
teclea: “Pon música de baile de los ochenta en el sótano”.
Y el ritmo empieza a sonar desde los altavoces ocultos de la planta.
Al poco, la casa baja el volumen de la música y anuncia, con una voz
ligeramente monocorde, que hay una llamada.
Por
la mañana, la casa dice si durante la noche ha nevado y si el acceso
por carretera está cerrado. La casa consigue todas estas
informaciones de Internet.
Sin
embargo, el
objetivo principal de la automatización inteligente es el ahorro de
energía.
Gracias a los sensores de movimiento, el ordenador sabe las
habitaciones en las que hay alguien y se encarga de que cuenten con
una ventilación suficiente y de que la temperatura sea agradable.
Y,
por supuesto, en la casa más inteligente del mundo nadie se para a
pensar en la luz. “Nuestros hijos no han tenido que encender la luz
en toda su vida”, dice Ian Mercer. Para ellos, el pequeño, de 12
años, y la mayor, de 16, los interruptores pertenecen a una
tecnología obsoleta.
Exceso
de órdenes
Mercer
reconoce que ha subestimado la cantidad de esfuerzo que le iba a
tener que dedicar a la casa. Los objetos inteligentes suelen
funcionar de acuerdo con una regla muy sencilla: si pasa esto, haz
esto otro. Y, en una casa humana, este tipo de lógica mecánica se
ve superada constantemente.
Las
persianas deberían bajarse si el sol se refleja en el monitor del
despacho, pero quedarse subidas si quiero mirar por la ventana. El
despertador tiene que sonar media hora antes si la carretera para ir
al trabajo está atascada, pero no si hoy voy a usar el tranvía. Al
final, la gente termina teniendo que decirle, día sí, día no, a su
mayordomo electrónico lo que hay que hacer. “Una casa a la que
tengo que explicarle todo es una casa tonta”, comenta Mercer.
Una noche, las luces de su casa empezaron a encenderse y apagarse de repente. Alguien había entrado en el sistema
Para
evitar esta pesadilla, las cosas funcionan de otra manera en su casa
del futuro. No precisa de indicaciones: se la controla viviendo en
ella. Por ejemplo, para que la luz funcione de forma adecuada, la
casa debe anticipar los movimientos de las personas. Por eso, Mercer
va a instalar bajo la tarima sensores que registren el peso de
quienes caminan sobre ellos. La casa será capaz de identificar a los
dueños o a sus invitados a partir de su peso. Y el
ordenador central irá aprendiendo los hábitos de cada uno de ellos.
Por
ahora, su casa ya está empezando a mostrar una sensibilidad
sorprendente. Si Mercer tiene que levantarse para ir al baño en
mitad de la noche, se encuentra una luz tenue al llegar; los sensores
han detectado que sale de un dormitorio a oscuras y no quieren
deslumbrarlo.
Los
peligros de la red
Mercer
es muy consciente de que su ejemplo no es válido para todo el mundo.
“¿Qué otra persona se tomaría tantas molestias?”, plantea. Ni
él mismo lo tiene todo bajo control.
Una
noche, las luces de su casa empezaron a encenderse y apagarse de
repente, una tras otra, como si hubiese un fantasma eléctrico
pululando por las habitaciones. Cuando el encantamiento terminó,
Mercer analizó el ordenador central. Y sí, alguien
más había entrado en el sistema: Google.
El buscador había detectado la casa en la Red. Consiguió entrar en
el sistema de control, donde se encontró con un montón de luces,
una de ellas con una dirección de Internet propia y empezó a
indexarlas una tras otra en su gigantesco motor de búsqueda.
En 2020 podría haber en el mundo 25.000 millones de electrodomésticos conectados a la Red
No
todos los intrusos son tan civilizados como el buscador. El año
pasado, una pareja de Ohio se despertó por los gritos de un
desconocido dentro de la casa. Venían
de la habitación de la hija pequeña: “¡despierta, pequeña,
despierta!”. Cuando el padre entró en el dormitorio, el ojo de la
cámara web que debía proteger el sueño de su hija se volvió hacia
él. A través del altavoz resonaban insultos: un hacker se
había hecho con el control de la cámara.
Estas
incursiones crecen a medida que aumenta la cantidad de aparatos
conectados a la Red. El año pasado se publicó que
los hackers habrían
pirateado cientos de miles de aparatos domésticos con conexión a
Internet. Una
vez hackeados,
quedan esclavizados y se usan para enviar correos de spam a
todo el mundo.
“La casa se mantiene alerta ella sola”, dice Ian Mercer. Una tecnología que no necesita que nadie la maneje. Una tecnología de la que simplemente llegas a olvidarte.
Mercer,
de momento, sigue perfeccionando su casa. Incorporará en breve un
sistema de alarma estándar. Para que funcione, la casa necesita
saber en todo momento dónde se encuentran sus habitantes, lo que
hará gracias a los
datos de geolocalización de los teléfonos móviles. Si
toda la familia se encuentra de viaje y uno de los sensores se
activa, solo puede significar que se trata de un intruso.
Smart House, una de las mejores casas del mundo, se encuentra en Madrid
Además de su singularidad arquitectónica, decorativa y tecnológica, esta impresionante casa ha formado parte producciones de fotografía, cine y televisión y ha sido incluida en el libro ‘Domus Selecta’, una prestigiosa publicación en la que se pueden admirar las mejores casas del mundo.
De vez en cuando nos gusta traer hasta estas páginas viviendas que por su singularidad y espectacularidad destacan por encima de las demás. Y esta que te mostramos a buen seguro que pertenece a esta categoría. Ha sido bautizada con el nombre de Smart House (‘Casa inteligente’) y se encuentra ubicada en una de las mejores zonas de la Comunidad de Madrid: la lujosa urbanización de La Moraleja.
La
vivienda ha sido valorada, nada más y nada menos que en 7.750.000 €,
y a pesar de su desorbitado precio, la inmobiliaria de lujo Jaime
Valcarce Consulting Inmobiliario acaba de anunciar su venta.
Ha sido diseñada y proyectada por el artista Javier de Hita y el arquitecto Otto Medem, del estudio de arquitectura ‘La Casa de La Moraleja’, especializado en el sector de viviendas residenciales de lujo. Está compuesta por una vivienda única y singular de más de 1.000 m2 y situada en una parcela de más de 2.600 m2. A pesar de lo que pudiera parecer, en función de estos tamaños, la casa está especialmente pensada para ‘vivirla’ de manera cómoda. La planta de la casa ocupa un 10% y el resto se dedica a una amplia parcela que rodea la vivienda, cuyas zonas principales están orientadas al mediodía.
Ha sido diseñada y proyectada por el artista Javier de Hita y el arquitecto Otto Medem, del estudio de arquitectura ‘La Casa de La Moraleja’, especializado en el sector de viviendas residenciales de lujo. Está compuesta por una vivienda única y singular de más de 1.000 m2 y situada en una parcela de más de 2.600 m2. A pesar de lo que pudiera parecer, en función de estos tamaños, la casa está especialmente pensada para ‘vivirla’ de manera cómoda. La planta de la casa ocupa un 10% y el resto se dedica a una amplia parcela que rodea la vivienda, cuyas zonas principales están orientadas al mediodía.
El hecho de que la casa haya sido bautizada con el nombre de Smart House no es baladí, porque la vivienda está totalmente domotizada para facilitar la vida a sus inquilinos. De esta manera puede emplearse un simple teléfono móvil o una tableta para el control de la iluminación, subir o bajar las cortinas, escuchar música de ambiente, tanto para el interior de la casa como para el jardín y, por supuesto, para manejar el funcionamiento de las cámaras de seguridad interiores y del exterior de la vivienda… Ni qué decir tiene que, además, esta singular casa también apuesta por la sostenibilidad, ya que cuenta con la calificación energética ‘A’, basada en un sistema de climatización (frío-calor) geotérmico, cubierta ventilada y sistemas de iluminación por leds. ¿Alguien da más? No te pierdasnuestra galería de imágenes.
Fotos
siguiendo el enlace, pincha aquí.
Fuente
de los textos propuestos para la tercera evaluación para extraer
preguntas de examen:
Texto
1: ¿Por qué el carbono y no el silicio?
Texto
2: La nueva Fiebre del Oro:
Texto
3: Resolución de problemas difíciles.
Texto
4: Cerebros de silicio
Texto
5: La casa del futuro
fotos
en de la Smart House La moraleja:
No hay comentarios:
Publicar un comentario