domingo, 21 de abril de 2019

Solución al ejercicio de ciclos biogeoquímicos.

Solo debíais hacer (y estudiar) las columnas de microorganismos y reacciones, fuente y sumidero.
La columna de actividad o incorporación no tenéis que estudiarla.
                   esta columna
                           
CICLO
DEL
ACTIVIDADO INCORPO-RACIÓN
REACCIONES Y MICROORGANISMOS
FUENTES
SUMIDEROS
C
Poco activo
Poco activo

Respiración y fotosíntesis
Combustión: metano CO2+H2O
Combustión
Descomposición y fermentación: arqueobacterias y levaduras.
Algas y cianobacterias
Rocas carbonatadas
Combustibles fósiles

Atmósfera
CO2
Atmósfera
Aguas
S
Iones sulfato + fotosíntesis






Poco activo
Radical de cisteína y metionina que por descomposición de m.o.
Acrobacter
Ácido sulfhídrico↜
Thiobacterium
          Azufre                 Desulfovibrio↑
Thiobacilus
Sulfatos

Combustión
Atmósfera y solfataras volcánicas



Antrópica

Pirita y yeso






Por lluvia ácida queda en el suelo.
N
Muy activo
amonificación y nitrificación
Putrefacción
bacterias y hongos
Amoniaco
bacterias notrosificantes Nitrosomonas
Nitritos
bacterias nitrificantes Nitrobacter
Nitratos
Nostoc, azotobacter, Clostridium y Rhizobium
Asimilados por las plantas
Pseudomonas
N2

Atmósfera y emisiones volcánicas en forma de N2, óxidos y amoniaco: NH3.



Suelo
Agua
P
Muy activo
Orina, heces, tejidos
bacterias fosfatizantes
fosfatos
guano
Materia orgánica
Fondos oceánicos y algas y plantas marinas.
Fe
Activo en medio ácido
Fe2+
    ↓   Thiobacilus ferroxidans
Fe3+
Oligisto, pirita, limonita.
Cationes.

Suelo

Sistema Inmune


Ig E es la inmunoglobulina E Se colocan en la membrana de los mastocitos y son bombas de histamina ante alérgenos.

Ig A es la inmunoglobulina A sólo se pasan al bebé si éste tiene lactancia materna.

Para la hepatitis B ya existe una vacuna.

Recordatorio

Los alumnos que no hayan entregado las preguntas del mamut, podéis entregarlas el martes o miércoles, después no se recogerán más trabajos.

Esta semana se realiza el examen de recuperación y los alumnos/as de 4º Empresa realizarán el examen parcial del 3º trimestre.


Video sobre selección clonal

Pulse aquí para ver el video

jueves, 4 de abril de 2019

Textos para tercer trimestre

Cultura Científica

Textos para el tercer trimestre.


Texto 1: ¿Por qué el carbono y no el silicio?

Pincha aquí


Texto 2: La nueva Fiebre del Oro:

Por P. Roberto J. el 12 de diciembre de 2011. GENBETA
La historia de descubrimiento del transistor es la historia de cómo los pequeños detalles cambian el mundo. Es también el punto de no-retorno, el quicio de entrada en la Era de la Información, y por tanto un momento que ya se señala en los libros. Y marca, además, la primera gran aplicación de la mecánica cuántica: el momento en que lo que podría haberse considerado casi esotérico pasan a estar en la palma de nuestra mano.
Es significativo que la palabra “transistor” sirviese para nombrar también a las pequeñas radios que se podían llevar de un lado a otro: pese a la importancia indudable para toda la industria, la invención de aquel “fuego de cristal” caló especialmente porque pudo aplicarse de manera directa sobre el gran público de maneras muy diversas. Fue y aún es una tecnología hecha para para cambiar la manera de vivir. Fue, claro, Historia.
De hecho, dio origen a una nueva “fiebre del oro”, pero si sustituimos ese metal por la fiebre por los semiconductores y lo que podían producir, que culminó en la creación de Silicon Valley y que dio origen de manera directa a todo lo que hoy vemos y vivimos en Genbeta. Y, sin embargo, aunque nos encantan las leyendas, es complicado acotar quién es el héroe de ésta: la invención y creación del transistor fue producto de un gran número de personas trabajando de manera independiente, haciendo pequeños avances y accediendo a un conocimiento común. Todas esas ideas, avances y accidentes desembocaron en “el mes milagroso”, el que va de noviembre al 16 de diciembre de 1947, protagonizado por Walter Brattain, John Bardeen y William Shockley.

Problemas que crean problemas

Bell Labs
Vista aérea de Bell Labs

Antes de la entrada en acción del extravagante equipo que se formó en los Bell Labs, hay que revisar por qué nació allí el primer transistor. Los Bell Labs representaban el potencial investigador que salía de la industria estadounidense. Eran la parte investigadora de AT&T, la compañía que había conseguido convertirse en el gran gigante de la telefonía. Pero AT&T tenía un problema grave: con las patentes de Graham Bell a punto de finalizar, necesitaba un revulsivo para mantenerse en cabeza y en posición dominante de su sector. La única idea que se les presentaba como mágica era la de dar el salto del Atlántico: conseguir las comunicaciones telefónicas transoceánicas.
Tras hacerse con la patente del triodo de Lee De Forest, que funcionaba en el tubo de vacío, AT&T lo mejoró al máximo, pero llegó un momento en que vio que el límite estaba demasiado cerca y, sin embargo, la solución a su problema seguía pendiente. El invento de De Forest permitía la comunicación de larga distancia, pero necesitaba amplificadores fiables, cosa que los tubos de vacío no eran: se calentaban demasiado, necesitaban demasiada energía y, en definitiva, eran una solución poco eficiente para la compañía. Así fue como los Bell Labs centraron a parte de sus equipos en la investigación de los materiales semiconductores.

El equipo del primer transistor

Bardeen
Los miembros del Hell’s Bells

El elegido para guiar la investigación fue William Shockley, investigador que ya había demostrado su valía en el terreno de los semiconductores en la II Guerra Mundial, donde éstos fueron claves para el desarrollo del radar. Shockley había estado presente en las investigaciones militares y, al ser elegido como líder del equipo por Bell Labs, tuvo muy claro que quería perfiles muy distintos trabajando a la vez, pero de manera independiente, en un objetivo común.
Su figura, la de Shockley, es posiblemente la más controvertida de toda esta historia. Fue parte indudable de la invención del transistor y, como tal, ganó el premio Nobel junto a John Bardeen y Walter Brattain, pero sus detractores han insistido en cómo el jefe del equipo se llevó un mérito que no fue directamente suyo. Es cierto que Shockley no intervino de manera directa en ese “mes milagroso” que dio origen al primer transistor, pero minimizar su aportación implica olvidar que fue él quien entendió inmediatamente las consecuencias de lo creado por Bardeen y Brattain y que también fue Shockley uno de los que, tras abandonar Bell Labs, dio origen a Silicon Valley profundizado en lo creado en su anterior trabajo.
¿Por qué se minimiza su labor? Sin duda, parte de la culpa la tiene el propio Shockley, que en la última época de su carrera se centró en investigaciones sobre diferencias raciales demasiado cercanas a conceptos como la eugenesia. También porque, en efecto y como veremos más tarde, el movimiento que cambió la dirección de las investigaciones fue el de Bardeen y éste no le comunicó a Shockley el cambio de enfoque. Pero, pese a todo, es complicado querer borrar por completo su influencia en un equipo que lideró.
Lo que sucedió en ese laboratorio, que los integrantes conocían como ‘Hell’s Bells’, tiene bastante que ver con la lucha de egos, claro, y está muy bien relatada en ‘Crystal Fire’, un gran libro de Michael Riordan y Lillian Hoddeson sobre la invención del transistor. La otra cara de la moneda, la de Shockley y su intervención en el transistor, podéis leerla a fondo en ‘Broken Genius’ (ambos sin traducción al Español).

Un mes para cambiar el mundo

El primer transistor
El primer transistor de la Historia

Shockley se trajo a su equipo a Bardeen y Brattain con una única idea: en 1945, había desarrollado un primer amplificador con materiales semiconductores, pero su pequeño cilindro no llegó a funcionar correctamente. Pese a que muchos consideraban la idea una locura, Shockley decidió que lo único que había que hacer era saber por qué y en qué fallaba: esa sería la tarea de Bardeen y Brattain.
Los dos científicos tenían perfiles muy diferentes: Bardeen era el teórico, el que apuntaba de manera impredecible causas y soluciones. Brattain, por su parte, se ocupaba de construir en el laboratorio los experimentos que pondrían a prueba las ideas de Bardeen. No era sencillo: los choques de opinión eran constantes, especialmente durante el mucho tiempo en el que no hubo avance alguno.
El 17 de noviembre de 1947, sin embargo, algo cambió: para ahorrarse tiempo, Brattain decidió sumergir su invento en agua… y consiguió hacerlo funcionar, brevemente. Suficiente para que Brattain descubriera que los electrones no funcionaban de la forma en que todo el mundo pensaba que lo hacían y que había formas de que la barrera que bloqueaba la amplificación desapareciese.
Durante un mes, Bardeen y Brattain fueron probando distintas soluciones sin consultar a Shockley el camino que habían tomado. Sin embargo, los experimentos no conseguían desbloquear otro de los grandes problemas: el equipo de Bell Labs conseguía amplificar, pero sólo aquello de frecuencias muy bajas, así que no le serviría a AT&T, la compañía que, después de todo, financiaba sus experimentos. La solución final al problema fue consecuencia de un error: Brattain quería probar un nuevo experimento con dióxido de germanio, pero resultó que, por accidente, había eliminado cualquier rastro de óxido del metal. Pese a considerarlo inútil, Brattain probó a usarlo, descubriendo así que de esa manera podían lograr amplificar todas las frecuencias.
La combinación de todos esos experimentos culminó, el 16 de diciembre de 1947, en el primer amplificador de punto de contacto. Cuando Shockley vio los resultados no pudo sino obsesionarse: se pasó toda la Nochevieja y los dos primeros días de 1948 diseñando un transistor que mejorase el de Brattain y Bardeen. No llegó a ninguna conclusión, pero continuó trabajando en sus ideas durante enero y gran parte de febrero de ese, mientras los abogados de Bell Labs le amenazaban con dejarle fuera de la patente y de toda la responsabilidad en la creación del transistor. Antes de que eso ocurriera, el científico presentó a todo el equipo su “transistor sandwich”, con tres capas de semiconductores. Bell Labs tenía por fin la solución que quería y Shockley, el crédito que merecía.

Consecuencia de un buen uso de la electrónica

El transstor de SOny
A la derecha del todo, la primera radio transistor

El mundo pudo haber sido muy distinto si el ejército de EEUU hubiese decidido clasificar la invención de Bell Labs. Tuvo la oportunidad, porque la compañía decidió presentárselo a ellos antes que a nadie. Pero, afortunadamente, los militares no tomaron ninguna decisión en firme y la compañía, consciente de la importancia de lo descubierto, dio una rueda de prensa para anunciarlo. Necesitaban un nombre y John Pierce, científico de la compañía que en su tiempo libre escribía ciencia ficción, dio con el de “transistor” Y, a partir de ahí, el mundo cambió.
El primer producto de uso directo por parte del consumidor que usó un transistor fue un sonotone. Pero no tardó en aparecer quien se interesara en algo más allá. Y, curiosamente, llegó de fuera de EEUU: mientras la industria electrónica de este país se centraba en los usos militares del invento, fueron los japoneses Masaru Ibuka y Akio Morita quienes vieron el negocio definitivo: fundaron Sony y se especializaron en producir pequeñas radios portátiles. Los “otros” transistores.
El resto es historia. Gracias a la miniaturización que permitió el descubrimiento del transistor se desarrolló la informática. El propio Bill Gates señaló no hace mucho que el PC no hubiera sido posible sin el invento de Bell Labs. El transistor y su aplicación en electrónica de consumo dio vida a la Era de la Información y a la expansión de la cultura juvenil a finales de los 50. Decíamos que hizo historia, sí, incluida esa parte que explotó a finales de los 50: sin él (y sin Sony, como Ian Ross, presidente de Bell Labs, reconoció), no habría sido posible la revolución pop, el rock’n‘roll, y el estilo de vida de una generación dispuesta a consumir.

Silicon Valley​ es el nombre que recibe la zona sur del Área de la Bahía de San Francisco, en el norte de California, Estados Unidos. La región cuyo nombre proviene del Valle de Santa Clara, incluye la mitad sur de la Península de San Francisco, abarcando aproximadamente desde Menlo Park hasta San José y cuyo centro se situaría en Sunnyvale
Google, Facebook, Yahoo, Intel, Cisco, Linkedin y otras grandes empresas tecnológicas tienen oficinas en este “parque tecnológico”

¿Por qué se llama Silicon Valley?

Fue el periodista Don Hoefler el que, en el año 1971, popularizó la expresión Silicon Valley al utilizarla como título de una serie de artículos semanales en el periódico Electronic News.
En 1953 un antiguo californiano decidió mudarse allí. William Shockley, quien había abandonado Bell Labs por un desacuerdo sobre la forma en que se había presentado el transistor al público, ya que debido a los intereses de patentes, se relegó su nombre a un segundo plano en favor de los coinventores John Bardeen y Walter Houser Brattain.
William Shockley inventó el transistor
Tras divorciarse de su mujer, volvió al Instituto de Tecnología californiano donde se graduó en Ciencias, pero se trasladó a Mountain View para crear la empresa Shockley Semiconductor como parte de Beckman Instruments y vivir más cerca de su madre.
A diferencia de otros investigadores que utilizaban germanio como material semiconductor, Shockley creía que el silicio era un mejor material para fabricar transistores. Shockley se propuso mejorar el transistor con un diseño de tres elementos (hoy se le conoce como el diodo Shockley) que obtendría éxito comercial, pero cuyo diseño era considerablemente más difícil de construir que el diseño convencional.
A medida que el proyecto pasó por varias dificultades, Shockley se volvió cada vez más paranoico. Exigió que los empleados se sometieran a un detector de mentiras, anunció sus salarios públicamente y, en general, se enemistó con todo el mundo, y en 1957, Shockley decide finalizar el trabajo relacionado con el transistor de silicio, todos factores que ayudaron a que en 1957, ocho de los ingenieros más brillantes, que él mismo había contratado, lo abandonaran para formar la compañía Fairchild Semiconductor.
Google Campus en Mountain View
Shockley los llamaba los “ocho traidores”. Dos de los empleados del grupo original de Fairchild Semiconductor, Robert Noyce y Gordon Moore, a su vez luego fundarían Intel.9​10​
Durante los años siguientes este hecho se repetiría varias veces; a medida que los ingenieros perdían el control de las compañías que crearon al caer en manos de directivas exteriores, las abandonaban para formar sus propias empresas. AMD, Signetics, National Semiconductor e Intel surgieron como vástagos de Fairchild o, en otros casos, como vástagos de vástagos.
A comienzos de 1970, toda la zona estaba llena de compañías de semiconductores que abastecían a las compañías de computadores y estas dos, a su vez, a las compañías de programación y servicios. El espacio industrial era abundante y el alojamiento aún barato.
El crecimiento se vio potenciado por el surgimiento de la industria de capitales de riesgo en Sand Hill Road que fundó Kleiner Perkins en 1972; la disponibilidad de estos capitales estalló tras el éxito de 1300 millones de dólares por la OPA (oferta pública de acciones) de Apple Computer en diciembre de 1980.
Google tiene un enorme complejo de edificios en Silicon Valley –conocido como GooglePlex-, en la puerta de cada uno hay bicicletas que se utilizan para ir de un edificio a otro.
Intel, el mayor fabricante de procesadores y líder en innovación, también tiene centros de investigación y desarrollo en el valle, donde se diseña la tecnología que está por venir.
Cisco, líder mundial en redes para Internet, tiene una gran cantidad de edificios en Milpitas, una de las ciudades del Valle.
Facebook sorprende con dos edificios en piedra que sólo se encuentran si uno tiene la dirección, ya que no tienen el nombre de forma visible y pasan muy desapercibidos.
YahooLinkedinMicrosoftHPMcAffee y varias empresas tech con trayectoria y también nuevas, tienen edificios en Silicon Valley.
Compañías renombradas
Ebay. Adobe en San José. Intel en Santa Clara. Yahoo en Sunnyvale. Google Campus en Mountain View.
No pocas empresas de alta tecnología han establecido sus sedes en Silicon Valley; la siguiente lista son algunas de las que figuran en Forbes 500:
Adobe Systems | Agilent | Altera | AMD | Apple Inc. | Applied Materials | BEA Systems | Cadence Design Systems | Cisco Systems | Ebay | Electronic Arts| Google | Hewlett-Packard | Intel | Intuit | Juniper Networks | Nokia | Maxtor | Microchip Technology Inc. | National Semiconductor | Network Appliance | Nimsoft | Oracle Corporation | Siebel | Sun Microsystems | Symantec | Synopsys | Veritas Software | Yahoo! | Informatica Corporation | Tesla Motors
Otras compañías famosas con sede también en el Silicon Valley:
Adaptec | Alphabet Inc. | Atmel | Cypress Semiconductor | Facebook | Flextronics | Handspring | Intermedia.NET | Kaboodle | McAfee | NVIDIA Corporation | Infolink | Palm, Inc. | PayPal | Rambus | Silicon Graphics | Tivo | Twitter | Verisign
Universidades
Universidad de Berkeley — No está realmente ubicada en el “Silicon Valley”, sino del lado opuesto de la Bahía de San Francisco, pero es muy renombrada por los recursos dedicados a la investigación, y sus graduados.
Universidad Estatal de San José. Universidad de Santa Clara. Universidad de Stanford. San Jose City College — Universidad comunitaria




Texto 3: Resolución de problemas difíciles.

Computación basada en ADN


La maravilla de la interdisciplina es que permite conectar mundos que normalmente no se ven.

A finales de los 80 y principios de los 90 del siglo pasado, Leonard Adleman, matemático y experto en cómputo, tenía como una de sus líneas de investigación fenómenos relacionados con el SIDA. Según sus propias palabras, para poder tener más credibilidad entre la comunidad científica del tema decidió estudiar a fondo la biología del virus. Para eso tuvo que pisar el laboratorio y aprender biología molecular. Ahí conoció los detalles de cómo el funcionamiento de la vida se basa en procesar información almacenada en la molécula de ADN (Ácido desoxirribonucleico). Pero sus ojos de computólogo lo llevaron a ver los mecanismos con los que los seres vivos procesan y almacenan la información genética, como pequeñas computadoras. Y mejor aún, pensó en un ingenioso modo para utilizar esos mecanismos y resolver problemas matemáticos complejos.
La molécula de ADN está formada por una serie de moléculas más pequeñas llamadas nucleótidos.
La molécula de ADN está formada por una serie de moléculas más pequeñas llamadas nucleótidos, unidas en forma de cadena. Hay cuatro diferentes nucleótidos denominados por las letras A, T, C y G, que pueden ordenarse de cualquier manera para formar largas cadenas de ADN, por ejemplo GCTATCGACGT. La información biológica está guardada en este tipo de cadenas de forma análoga a las cadenas de ceros y unos (00110101110011) con las que guarda la información una computadora digital. El mecanismo que los organismos vivos tenemos para leer y usar esa información es a través de pequeñas moléculas que funcionan como nanomáquinas, capaces de actuar sobre las cadenas de ADN. La más importante de esas moléculas es la enzima ADN-Polimerasa. Esta molécula es capaz de leer una cadena de ADN y generar su cadena complementaria basándose en las reglas de apareamiento de nucléotidos de Watson y Crick: el nucléotido C es complementario con el G, mientras que el A lo es con el T. Cuando la ADN-Polimersa encuentra un nucleótido en la cadena original, coloca su complementario en la cadena complementaria. De este modo, la cadena complementaria de la cadena del párrafo anterior sería CGATAGCTGCA.
En el sentido más amplio del concepto, una computadora es algo mucho más general que un dispositivo electrónico que sirve para procesar datos, editar documentos y navegar por internet. Cualquier sistema que sea capaz de transformar información de entrada en información de salida aplicando una serie de reglas (un algoritmo) es considerada una computadora. La base de esta definición es la famosa Máquina de Turing: una pequeña máquina con dos brazos. Con uno de ellos lee, uno a uno, los símbolos impresos en una larga banda, y con el otro imprime en otra banda el resultado de aplicar a cada símbolo leído una serie de reglas de procesamiento (un algoritmo) con las cuales ha sido configurada la máquina. La Máquina de Turing es muy simple pero su esencia es la misma que la de cualquier computadora, analógica o digital, por compleja que ésta sea; es una conceptualización muy general de una computadora que por su simpleza y generalidad ha sido muy importante para el estudio teórico de las ciencias computacionales.
los avances en la biología molecular todavía no nos permiten diseñar moléculas como la ADN-Polimerasa.
Cuando Adleman aprendió el modo en que opera la ADN-Polimerasa no pudo verla sino como una nano-Máquina de Turing, programada para crear cadenas complementarias de ADN. Inmediatamente comenzó a pensar cómo lograr que esa computadora biológica hiciera otro tipo de operaciones computacionales. Sin embargo, los avances en la biología molecular todavía no nos permiten diseñar moléculas como la ADN-Polimerasa para que actúen sobre el ADN con las reglas que nosotros queremos: la ADN-Polimerasa es el resultado de millones de años de evolución. Así es que Adleman tuvo que conformarse con los elementos disponibles en la biología molecular para pensar en alguna forma de hacer cálculos computacionales basados en ADN.
Además de la ADN-Polimerasa hay otras moléculas (nano-máquinas) capaces de operar sobre las cadenas de ADN, como por ejemplo, uniéndolas (la ADN-ligasa) o cortándolas (la ADN-nucleasa). Aunado a esto, la biología molecular ha desarrollado técnicas para crear cualquier cadena de ADN que uno quiera o para separarlas según su tamaño. Echando mano de todos estos elementos, Adleman fue capaz de traducir un problema matemático en cadenas de ADN y resolverlo a través de un algoritmo basado en reacciones bioquímicas e ingeniosas manipulaciones moleculares en el laboratorio. Es decir, inventó la computación basada en ADN.
 
Leonard Adleman con su computadora basada en ADN Leonard Adleman con su computadora basada en ADN
 
El problema matemático que Adleman decidió resolver con su computadora bioquímica fue una versión especial del problema del viajero, un problema de optimización relacionado con encontrar el camino óptimo para visitar un cierto número de ciudades pasando por cada una de ellas únicamente una vez. El problema del viajero es un problema computacionalmente “muy difícil” y al resolverlo, Adleman no sólo mostró la posibilidad de realizar operaciones computacionales basadas en ADN, sino que puso en evidencia que la naturaleza de su computadora bioquímica es el cómputo en paralelo, es decir, la realización simultánea de muchas operaciones, en contraste con el cómputo en serie de las computadoras digitales, en donde las operaciones se realizan una después de otra. El cómputo en paralelo potencia por mucho las capacidades de una computadora. La tendencia actual en la computación digital es usar cada vez más el cómputo en paralelo; de ahí el desarrollo de procesadores de varios núcleos o el repunte del cómputo científico basado en tarjetas de video (GPU’s).
Pero, ¿qué quiere decir que un problema sea computacionalmente difícil? Las ciencias computacionales clasifican los problemas que pueden resolverse con una computadora de acuerdo al número de operaciones que deben realizarse para obtener la respuesta y cómo crece ese número al aumentar la cantidad de variables del problema: si el número de pasos aumenta polinomialmente se dice que el problema es fácil y se le clasifica como problema tipo P (polinomial). Por otro lado, si la solución a un problema es fácilmente verificable, es decir, el proceso de verificación crece polinomialmente con la cantidad de variables, entonces se le clasifica como problema tipo NP (Non-deterministic polynomial). Por ejemplo, separar por colores un conjunto de piezas Lego es un problema fácil. El algoritmo sería: 1) se toma la pieza; 2) se detecta el color; 3) se coloca en el recipiente del color correspondiente. Si hay X piezas, el problema queda resuelto en 3X pasos. Si hay el doble de piezas, 2X, entonces el número de pasos es también el doble: 3*2X = 6X. Es decir, el número de pasos crece linealmente, que es un polinomio de orden 1. Separar por colores es entonces un problema tipo P, pero también es un problema NP porque verificar que las piezas estén separadas correctamente es fácil. En cambio, armar un rompecabezas es un problema NP, porque una vez que está armado es fácil ver que esté armado correctamente, pero no es un problema tipo P. Para que una computadora pudiera armar un rompecabezas, prácticamente debería probar todas las piezas unas contra otras para saber cuáles embonan correctamente. Si el rompecabezas tiene X piezas el número de pasos necesarios es X factorial, es decir, X*(X-1)*(X-2)*….*4*3*2*1. Si X = 10, el número de pasos sería 3,628,800; si X = 20 se necesitarían 2.4×1018 pasos (¡2.4 seguido de 18 ceros!). Con tal tasa de crecimiento del número de pasos necesarios en el algoritmo al aumentar el número de piezas, el problema se vuelve inmanejable en términos prácticos muy rápidamente.
¿Será que todo problema NP es también P?
En 1971, Stephen Cook demostró que todo problema tipo P es también NP. Una vez probado esto, surge de manera natural la pregunta, ¿será que todo problema NP es también P? La pregunta parece ingenua: el problema del rompecabezas es claramente NP, pero no parece ser fácil de armar para una computadora. Así es que la respuesta a la pregunta parece ser un obvio y contundente NO y debería de ser fácil para un matemático demostrarlo formalmente. Pues no es así. El problema P versus NP es el problema teórico sin resolver más importante de las ciencias computacionales. De hecho, es uno de los Siete Problemas del Milenio, por los que el Clay Mathematics Institute ofrece un millón de dólares, por cada problema, a quien los resuelva.
Mostrar que todo problema P es también NP no es difícil. Lo verdaderamente valioso del trabajo de Cook de 1971 [1]fue que demostró que dentro del conjunto de problemas NP, existe otra clasificación de problemas llamados NP-completos. Este tipo de problemas tienen dos propiedades interesantes: 1) todo problema NP puede ser mapeado o traducido a uno NP-completo, por lo que si alguien encuentra un algoritmo fácil para resolver uno de estos problemas, entonces todo problema NP sería fácil y P sería igual a NP; 2) todos los problemas NP-completos descritos hasta ahora son difíciles, es decir, los algoritmos para resolverlos crecen exponencialmente al aumentar las variables. Cook demostró que todo problema NP puede ser traducido a una “oración lógica” del tipo [(a o b ) y (c o d)] en donde las letras a, b, c y d puede tomar los valores verdadero o falso y están unidas por los operadores “y”, “ó”, “no”. Si hay una combinación de verdaderos y falsos que haga que la oración total sea verdadera, entonces la oración tiene solución (“satisfiable” en inglés). Si no existe tal combinación, y la oración siempre es falsa, entonces no tiene solución. Encontrar si una oración de este tipo tiene o no solución se le conoce como un problema tipo SAT (abreviación de “satisfiability” en inglés): (a y no b) tiene solución; (a y no a) no tiene solución.
Muchos problemas cotidianos son del tipo NP-completo.
El ejemplo del rompecabezas es un problema NP-completo. Y no es el único. Muchos problemas cotidianos son de este tipo: asignar pilotos y tripulación a aviones de una compañía aérea, distribuir víveres en una zona de desastre, sincronizar semáforos, acomodar la mayor cantidad de cajas de diferentes tamaños en un camión, jugar tetris, y un largo etc. Pero la relevancia de P vs NP no solo radica en lo cotidiano de estos problemas. Mientras no se demuestre que P es diferente de NP existe la posibilidad de que todos los problemas computacionales puedan ser fáciles de resolver para una computadora, lo cual tendría consecuencias enormes: la capacidad de cómputo de nuestras máquinas sería mucho mayor del límite que actualmente parecen tener, además de que pondría a todo el comercio y bancos en graves problemas dado que sus medidas de seguridad están basadas en problemas de criptografía NP-difíciles.
Adleman resolvió con su computadora bioquímica el problema de determinar si es posible visitar siete ciudades conectadas por catorce vuelos directos pasando únicamente una vez por cada ciudad. Como dijimos, este tipo de problemas son difíciles de resolver computacionalmente, pero únicamente cuando se quiere visitar muchas ciudades. Cuando solo son siete, entonces la solución se encuentra rápidamente, incluso sin usar una computadora. Pero Adleman sólo quería demostrar que resolver el problema era posible, y usar más ciudades habría implicado mucho más trabajo en el laboratorio.
El trabajo de Adleman motivó a otros investigadores a resolver problemas difíciles usando computadoras moleculares.
El trabajo de Adleman motivó a otros investigadores a resolver problemas difíciles usando computadoras moleculares. En el año 2000, Q. Liu y colaboradores reportaron haber resuelto el más difícil de los problemas NP, el problema 3-SAT, usando cómputo basado en ADN. En ese trabajo los autores mostraban que podían resolver un problema 3-SAT usando un algoritmo que crece polinomialmente con el número de variables del problema si no se consideran los pasos para crear las cadenas de ADN necesarias al inicio del proceso. ¿Un problema NP-completo resuelto por un algoritmo polinomial? ¿Había demostrado el cómputo basado en ADN que NP = P? Todavía no. El algoritmo de Q. Liu et al. era polinomial si no se consideraban los pasos iniciales de fabricación de las cadenas de ADN, pero no estaba claro cómo evaluar la complejidad de esos pasos iniciales. Los autores sugerían que, aunque en ese momento no había las herramientas necesarias para hacer ese paso inicial lo suficientemente sencillo para resolver problemas de más variables, esas herramientas ya estaban en proceso de desarrollarse y no tardarían mucho en estar listas.
El cómputo basado en ADN no es viable para resolver problemas tipo SAT
Pero no todos compartían su optimismo. En el mismo número de la revista Nature en que fue publicado el trabajo de Q. Liu y colaboradores, M. Ogihara y A. Ray cuestionan que la síntesis inicial de cadenas de ADN sea un proceso fácil en el sentido computacional de la palabra. Y no sólo la síntesis inicial de cadenas de ADN es un problema, también lo es el “ruido” intrínseco del proceso: el material que no logra separarse perfectamente en los pasos del algoritmo o la interacción de cadenas de ADN que no son perfectamente complementarias pero que se parecen mucho, son fuentes de error que, aunque pequeñas, imponen un límite al tamaño de problemas difíciles que pueden resolverse con esta técnica. De hecho, ya se ha demostrado que debido a este ruido, el cómputo basado en ADN no es viable para resolver problemas tipo SAT mejor que una computadora digital.
Pero esto no quiere decir que el cómputo basado en ADN no sea útil. M. Ogihara y A. Ray fueron visionarios no sólo por dudar de la capacidad del cómputo basado en ADN para resolver problemas difíciles, sino también por proponer que el mayor potencial de esta herramienta está en que para ciertas aplicaciones, puede ser muy útil que un dispositivo bioquímico realice operaciones computacionales de manera autónoma sin necesidad de estar conectado a una computadora digital. Por ejemplo, uno pudiera pensar en un dispositivo médico implantado dentro del organismo que pudiera determinar a partir de operaciones computacionales bioquímicas la necesidad de liberar fármacos en función de las necesidades inmediatas del organismo. Actualmente esto todavía no es una realidad, pero hacia allá apunta la investigación y el desarrollo en esta área y ya hay avances importantes. A pesar de sus limitaciones, la computación basada en ADN no deja de tener características que pueden ser muy útiles para desarrollar aplicaciones biomédicas: capacidad de almacenamiento de mucha información de manera muy condensada (la información genética almacenada en las células es la máxima expresión de esa capacidad); su enorme capacidad de realizar operaciones computacionales de forma simultánea (computación en paralelo); cada operación realizada con ADN requiere menos energía que si se realiza con una computadora convencional (eficiencia energética).
Han pasado veinte años desde el nacimiento del cómputo basado en ADN y todavía la comunidad científica no termina de entender su verdadero potencial y sus limitaciones. El tiempo ha mostrado que la computación basada en ADN no resolverá el problema P vs NP, pero la idea de Adleman no deja de ser genial. Como él mismo señaló en su momento, su experimento se enmarca dentro del florecimiento de un joven campo del conocimiento que une a las ciencias computacionales con la biología molecular y que promete sorprendentes descubrimientos y aplicaciones. Lo mejor está por venir… a nous de jouer! C2


Texto 4: Cerebros de silicio

Cerebros de silicio

Ray Kurzweil calcula que en pocas décadas habrá máquinas más inteligentes que nosotros y que podrán existir mentes conscientes no biológicas
RAÚL GAY
9 DE MARZO DE 2016
Ray Kurzweil
Prólogo de José Luis Cordeiro
Traducción de Carlos García Hernández
Lola Books 2013
321 páginas
Ray Kurzweil puede ser uno de los mejores científicos e inventores de la actualidad. Puede ser un buen escritor de ciencia ficción. O puede ser el hombre que profetiza y nos lleva al transhumanismo, un mundo en el que conviven humanos y máquinas inteligentes.
A los cinco años decidió que quería ser inventor y lo ha conseguido. Sus empresas han diseñado ordenadores que componen música, reconocedores de voz (Siri se basa en sus tecnologías), escáner de ordenador, programas que leen texto escrito (útil para ciegos), sintetizadores… Posee una fortuna de 27 millones de dólares, toma 150 pastillas al día para retrasar el envejecimiento y en sus libros ha predicho avances tecnológicos que parecían imposibles en su momento: la popularización de Internet, las revueltas ciudadanas apoyadas por la tecnología, Deep Blue ganando la ajedrez, los coches sin conductor, el ebook… 
Para ello, trabaja con la Ley de Rendimientos Acelerados, bautizada por él mismo, que explica la evolución exponencial de las tecnologías de la información (una ampliación de la conocida Ley de Moore sobre la capacidad de los chips). Su trabajo reciente se centra en la Inteligencia Artificial y Google lo ha contratado para construir un sistema de inteligencia artificial. Calcula que en pocas décadas habrá máquinas más inteligentes que nosotros (la llamada Singularidad) y podrán existir mentes conscientes no biológicas. De esto último trata su libro Cómo crear una mente, publicado en España (muy mal editado, por cierto) por Lola Books. 
Kurzweil comienza con un repaso a la evolución del ser humano y su cerebro, recordando que somos información, ni más ni menos. Somos cadenas de ADN que contienen información genética transmitida, modificada y ampliada generación tras generación. Nuestros cerebros crean y contienen información y hemos diseñado tecnologías que se basan, precisamente, en unos y ceros. Esta tecnología es cada vez más compleja y se crea más rápido: costó miles de años descubrir la máquina a vapor, pero pocas décadas pasar de ella a Internet. El siguiente paso es nuestro cerebro: saber exactamente cómo funciona, cómo repararlo y cómo crear máquinas que lo imiten.
Para ello, es necesario saber cómo funciona el pensamiento. En resumidas cuentas: con patrones. El clásico ejemplo de una palabra mal escrita o a la que le faltan letras y todos la entendemos. El cerebro ve señales, las enlaza con otras anteriores, busca un patrón y rellena los huecos. Esto es gracias al neocórtex, lo que realmente nos diferencia de otros seres vivos.
Una especie sin neocórtex puede tardar una enorme cantidad de generaciones en aprender nuevos comportamientos de importancia. La ventaja fundamental que conllevó el neocórtex en lo que se refiere a la supervivencia fue que podía aprender en cuestión de días. Si una especie se encuentra en circunstancias que han cambiado drásticamente y un miembro de dicha especie inventa, descubre o simplemente se topa con una manera de adaptarse a dicho cambio, otros individuos se darán cuenta de ello, procediendo aprender y copiar dicho método, que rápidamente se es partida como una plaga por toda la población.
¿Qué estructura tiene este neocórtex? Pues después de muchos estudios, se ha descubierto que se parece mucho a la de un chip. Es una de las claves de la teoría de Kurzweil: si, como se dice popularmente, el cerebro es un ordenador, un ordenador puede llegar a ser como un cerebro. Y sugiere que en un futuro podremos tener un neocórtex compartido, igual que hoy compartimos documentos, fotos y música en la nube.
Algunas personas se muestran preocupadas sobre lo que le pasará a aquellos que opten por rechazar una expansión de la mente de estas características. Al respecto yo señalaría que esta inteligencia adicional residirá fundamentalmente en la nube, donde la mayor parte de la inteligencia de nuestras máquinas ya está almacenada. Cuando utilizamos un buscador, usamos un sistema de reconocimiento del habla en nuestro teléfono móvil, consultamos un asistente virtual como Siri o usamos nuestro teléfono móvil para traducir un signo en otra lengua, la inteligencia no reside en el propio dispositivo, sino en la nube. Ahí también se hospedará nuestro neocórtex expandido. El que accedamos a dicha inteligencia a través de la conexión neuronal directa o de la forma que lo hacemos ahora es una distinción arbitraria. Ya hemos estado organizando en la nube gran parte de nuestra memoria personal, social, histórica y cultural, y en último término lo haremos también con nuestro pensamiento jerárquico.
Kurzweil repasa los proyectos en marcha para replicar cerebro de animales en forma digital. Se calcula que en menos de una década existirá un simulador de cerebro humano construido con microchips. Entre los proyectos de inteligencia artificial exitosos, cita sus programas de reconocimiento de voz (que han dado paso a Siri y Google Voice), Deep Blue y la partida de ajedrez y Watson ganando a Jeopardy! Estos proyectos de inteligencia artificial en diferentes campos no hacen más que crecer: asistentes virtuales, coches sin conductor, la web semántica, los programas de reconocimiento de voz... 
Estamos rodeados de inteligencia artificial y ya no tenemos la mano puesta sobre el enchufe. El simple hecho de contactar con alguien a través de un mensaje de texto, de un email o de una llamada de teléfono móvil implica el uso de algoritmos inteligentes que enrutan la información. Casi todos los productos a nuestro alcance están originariamente diseñados mediante la colaboración entre la inteligencia humana y la artificial, y después son construidos en fábricas automatizadas. (...) Si mañana todos los sistemas de inteligencia artificial decidieran hacer huelga, nuestra civilización se vería incapacitada. Por fortuna, nuestras inteligentes máquinas no son todavía lo suficientemente inteligentes como para organizar una conspiración así.
Kurzweil escribe sobre la frontera entre biología y filosofía. Se pregunta si la clave para la inteligencia artificial no será la inteligencia en sí (velocidad, memoria…), sino la consciencia. ¿Y qué es la consciencia? Difícil definirla... Científicos y filósofos debaten desde hace décadas y no hay una respuesta clara, sólo metáforas y circunloquios. Kurzweil argumenta que la ciencia busca lo objetivo y la consciencia es lo más subjetivo que existe. Por eso escapa a la definición. ¿Cómo saber si algo es consciente? Kurzweil ofrece un concepto: qualia. Wikipedia lo define como “las cualidades subjetivas de las experiencias individuales. Por ejemplo, la rojez de lo rojo, o lo doloroso del dolor”. Así, avanza que en un futuro este concepto será capital para diferenciar una máquina normal de una máquina consciente.
Imagínese que usted se encuentra con una entidad futura (un robot o un avatar), que es absolutamente convincente lo que se refiere a sus reacciones emocionales. Se ríe convincentemente de sus chistes y además le hace reír y llorar. Le convence de su sinceridad al hablar de sus miedos y anhelos. Parece consciente en todas sus formas. De hecho, tiene el aspecto de una persona. ¿Aceptaría usted a esta entidad como si fuera una persona consciente?
Si en un futuro hay máquinas conscientes, ¿tendrán derechos, como los animales? ¿Por qué un perro tiene mas derechos que una hormiga? Porque vemos consciencia en él. ¿Habrá máquinas con derechos y máquinas sin derechos? ¿Seguiremos considerándolas máquinas?
Faltan muchos años para que algunas de las ideas propuestas en este libro se cumplan. Pero lo cierto es que las tecnologías de la información avanzan cada vez más rápido y la última frontera de la ciencia, como suele decirse, es nuestro cerebro. 
Cómo crear una mente es un libro fascinante (aunque a veces difícil de seguir para los que no somos expertos en la materia) que ofrece preguntas y lanza hipótesis muy interesantes sobre la mente y la posibilidad de tener máquinas inteligentes en un futuro. Blade Runner puede no estar muy lejos. 

AUTOR




        • Raúl Gay

    Periodista. Ha trabajado en Aragón TV, ha escrito reseñas en Artes y Letras y ha sido coeditor del blog De retrones y hombres en eldiario.es. Sus amigos le decían que para ser feliz sólo necesitaba un libro, una tostada de Nutella y una cocacola. No se equivocaban. 


Texto 5: La casa del futuro


BIENVENIDOS A LA CASA MÁS INTELIGENTE DEL MUNDO.

Esta casa habla con sus habitantes, conoce sus costumbres y sabe cómo complacerlos. Un auténtico mayordomo, discreto y eficaz, al que no hay que dar ninguna indicación. Él sabe lo que hay que hacer. Esta vivienda anuncia un futuro muy próximo e inquietante que no tiene nada que ver con que su nevera esté conectada a Internet. Se lo contamos. Por Manfred Fworschakl

En medio de un bosque, a media hora en coche de Seattle, se alza una casa encantada. Habla con sus habitantes y satisface todos sus deseos con solo escucharlos. Su dueño dice que es la casa más inteligente del mundo.
Se trata de Ian Mercer. La casa le avisó hace rato de la llegada de sus invitados. La casa vigila todo lo que se mueve a su alrededor. Hay sensores en puertas y ventanas, debajo de la tarima y en la carretera de acceso.
Mercer vive aquí con su esposa, dos hijos, tres perros y seis caballos. A simple vista, nada delata que por dentro de las paredes de esta vivienda típica de la clase alta norteamericana corran innumerables cables que confluyen en el sótano. Allí zumba el cerebro de esta casa inteligente: el ordenador que controla la calefacción, la ventilación y las luces. Otros cables llevan hacia los altavoces, situados en todas las habitaciones y a través de los cuales la casa se comunica con sus habitantes. Pero ahora reina el silencio. “La casa sabe que no debe asustar a los invitados sin motivo”, dice Mercer, como si tanta consideración por parte de una casa fuese lo más normal.
Este hombre lleva una década trabajando en la automatización de su vivienda. Es el pionero de una revolución doméstica que ya ha comenzado: en breve, nuestros electrodomésticos abrirán los ojos a una vida inteligente.
Para muchos tecnoadictos, el milagro será posible gracias a los chips conectados a Internet con los que contarán todos los aparatos. Es el denominado Internet de las cosas’. Pero Mercer no espera mucho de esta nueva fiebre. “Muchos de estos dispositivos o no hacen falta -dice- o acaban poniéndote de los nervios”. Él prefiere encaminar sus esfuerzos a algo más práctico: lograr que esta especie de geniecillos domésticos tengan una utilidad real y no solo sirvan para impactar a los invitados.
Mercer tiene el dinero, la paciencia y los conocimientos necesarios para conseguirlo. Su empresa, Nextbase, sacó a finales de los ochenta un exitoso programa de navegación para PC. Luego se pasó a Microsoft, y bajo su dirección nacieron programas como el software de edición de vídeo Movie Maker. Pero el sueño de la smarthome no tardó mucho en convertirse en su verdadera pasión. Cree que lo que él está construyendo es el prototipo de la casa del futuro.
El mayordomo del siglo XXI
Todo empieza con el manejo del sistema. “Tiene que ser simple y lógico, natural explica Mercer, como dirigirse a un mayordomo para decirle lo que tiene que hacer”. Coge su smartphone y teclea: “Pon música de baile de los ochenta en el sótano”. Y el ritmo empieza a sonar desde los altavoces ocultos de la planta. Al poco, la casa baja el volumen de la música y anuncia, con una voz ligeramente monocorde, que hay una llamada.
Por la mañana, la casa dice si durante la noche ha nevado y si el acceso por carretera está cerrado. La casa consigue todas estas informaciones de Internet.
Sin embargo, el objetivo principal de la automatización inteligente es el ahorro de energía. Gracias a los sensores de movimiento, el ordenador sabe las habitaciones en las que hay alguien y se encarga de que cuenten con una ventilación suficiente y de que la temperatura sea agradable.
Y, por supuesto, en la casa más inteligente del mundo nadie se para a pensar en la luz. “Nuestros hijos no han tenido que encender la luz en toda su vida”, dice Ian Mercer. Para ellos, el pequeño, de 12 años, y la mayor, de 16, los interruptores pertenecen a una tecnología obsoleta.
Exceso de órdenes
Mercer reconoce que ha subestimado la cantidad de esfuerzo que le iba a tener que dedicar a la casa. Los objetos inteligentes suelen funcionar de acuerdo con una regla muy sencilla: si pasa esto, haz esto otro. Y, en una casa humana, este tipo de lógica mecánica se ve superada constantemente.
Las persianas deberían bajarse si el sol se refleja en el monitor del despacho, pero quedarse subidas si quiero mirar por la ventana. El despertador tiene que sonar media hora antes si la carretera para ir al trabajo está atascada, pero no si hoy voy a usar el tranvía. Al final, la gente termina teniendo que decirle, día sí, día no, a su mayordomo electrónico lo que hay que hacer. “Una casa a la que tengo que explicarle todo es una casa tonta”, comenta Mercer.

Una noche, las luces de su casa empezaron a encenderse y apagarse de repente. Alguien había entrado en el sistema

Para evitar esta pesadilla, las cosas funcionan de otra manera en su casa del futuro. No precisa de indicaciones: se la controla viviendo en ella. Por ejemplo, para que la luz funcione de forma adecuada, la casa debe anticipar los movimientos de las personas. Por eso, Mercer va a instalar bajo la tarima sensores que registren el peso de quienes caminan sobre ellos. La casa será capaz de identificar a los dueños o a sus invitados a partir de su peso. Y el ordenador central irá aprendiendo los hábitos de cada uno de ellos.
Por ahora, su casa ya está empezando a mostrar una sensibilidad sorprendente. Si Mercer tiene que levantarse para ir al baño en mitad de la noche, se encuentra una luz tenue al llegar; los sensores han detectado que sale de un dormitorio a oscuras y no quieren deslumbrarlo.
Los peligros de la red
Mercer es muy consciente de que su ejemplo no es válido para todo el mundo. “¿Qué otra persona se tomaría tantas molestias?”, plantea. Ni él mismo lo tiene todo bajo control.
Una noche, las luces de su casa empezaron a encenderse y apagarse de repente, una tras otra, como si hubiese un fantasma eléctrico pululando por las habitaciones. Cuando el encantamiento terminó, Mercer analizó el ordenador central. Y sí, alguien más había entrado en el sistema: Google. El buscador había detectado la casa en la Red. Consiguió entrar en el sistema de control, donde se encontró con un montón de luces, una de ellas con una dirección de Internet propia y empezó a indexarlas una tras otra en su gigantesco motor de búsqueda.

En 2020 podría haber en el mundo 25.000 millones de electrodomésticos conectados a la Red

No todos los intrusos son tan civilizados como el buscador. El año pasado, una pareja de Ohio se despertó por los gritos de un desconocido dentro de la casa. Venían de la habitación de la hija pequeña: “¡despierta, pequeña, despierta!”. Cuando el padre entró en el dormitorio, el ojo de la cámara web que debía proteger el sueño de su hija se volvió hacia él. A través del altavoz resonaban insultos: un hacker se había hecho con el control de la cámara.
Estas incursiones crecen a medida que aumenta la cantidad de aparatos conectados a la Red. El año pasado se publicó que los hackers habrían pirateado cientos de miles de aparatos domésticos con conexión a Internet. Una vez hackeados, quedan esclavizados y se usan para enviar correos de spam a todo el mundo.

La casa se mantiene alerta ella sola”, dice Ian Mercer. Una tecnología que no necesita que nadie la maneje. Una tecnología de la que simplemente llegas a olvidarte.

Mercer, de momento, sigue perfeccionando su casa. Incorporará en breve un sistema de alarma estándar. Para que funcione, la casa necesita saber en todo momento dónde se encuentran sus habitantes, lo que hará gracias a los datos de geolocalización de los teléfonos móviles. Si toda la familia se encuentra de viaje y uno de los sensores se activa, solo puede significar que se trata de un intruso.

Smart House, una de las mejores casas del mundo, se encuentra en Madrid

Además de su singularidad arquitectónica, decorativa y tecnológica, esta impresionante casa ha formado parte producciones de fotografía, cine y televisión y ha sido incluida en el libro ‘Domus Selecta’, una prestigiosa publicación en la que se pueden admirar las mejores casas del mundo.

De vez en cuando nos gusta traer hasta estas páginas viviendas que por su singularidad y espectacularidad destacan por encima de las demás. Y esta que te mostramos a buen seguro que pertenece a esta categoría. Ha sido bautizada con el nombre de Smart House (‘Casa inteligente’) y se encuentra ubicada en una de las mejores zonas de la Comunidad de Madrid: la lujosa urbanización de La Moraleja.


La vivienda ha sido valorada, nada más y nada menos que en 7.750.000 €, y a pesar de su desorbitado precio, la inmobiliaria de lujo Jaime Valcarce Consulting Inmobiliario acaba de anunciar su venta.
Ha sido diseñada y proyectada por el artista
 Javier de Hita y el arquitecto Otto Medem, del estudio de arquitectura ‘La Casa de La Moraleja’, especializado en el sector de viviendas residenciales de lujo. Está compuesta por una vivienda única y singular de más de 1.000 m2 y situada en una parcela de más de 2.600 m2. A pesar de lo que pudiera parecer, en función de estos tamaños, la casa está especialmente pensada para ‘vivirla’ de manera cómoda. La planta de la casa ocupa un 10% y el resto se dedica a una amplia parcela que rodea la vivienda, cuyas zonas principales están orientadas al mediodía.

El hecho de que la casa haya sido bautizada con el nombre de Smart House no es baladí, porque la vivienda está totalmente domotizada para facilitar la vida a sus inquilinos. De esta manera puede emplearse un simple teléfono móvil o una tableta para el control de la iluminación, subir o bajar las cortinas, escuchar música de ambiente, tanto para el interior de la casa como para el jardín y, por supuesto, para manejar el funcionamiento de las cámaras de seguridad interiores y del exterior de la vivienda… Ni qué decir tiene que, además, esta singular casa también apuesta por la sostenibilidad, ya que cuenta con la calificación energética ‘A’, basada en un sistema de climatización (frío-calor) geotérmico, cubierta ventilada y sistemas de iluminación por leds. ¿Alguien da más? No te pierdasnuestra galería de imágenes.
Fotos siguiendo el enlace, pincha aquí.

Fuente de los textos propuestos para la tercera evaluación para extraer preguntas de examen:

Texto 1: ¿Por qué el carbono y no el silicio?

Texto 2: La nueva Fiebre del Oro:


Texto 3: Resolución de problemas difíciles.


Texto 4: Cerebros de silicio

Texto 5: La casa del futuro


fotos en de la Smart House La moraleja: