| |||||||
|
martes, 27 de abril de 2010
Nokia lanza su nuevo smartphone
lunes, 26 de abril de 2010
Memorias de cambio de fase, sustitutas de las actuales NAND
La compañía que nació como joint venture de Intel y ST Microelectronix, Numoryx BV, acaba de presentar las memorias de cambio de fase (PCM) como sustitutos naturales para las memorias NAND, que mejoran la velocidad y el tiempo de vida de las mismas.
Son memorias no volátiles, es decir pueden almacenar datos sin estar conectadas y son extremadamente rápidas, del orden de 300 veces el rendimiento actual NAND.
La compañía que nació como joint venture de Intel y ST Microelectronix, Numoryx BV, acaba de presentar las memorias de cambio de fase (PCM) como sustitutos naturales para las memorias NAND, que mejoran la velocidad y el tiempo de vida de las mismas.
Son memorias no volátiles, es decir pueden almacenar datos sin estar conectadas y son extremadamente rápidas, del orden de 300 veces el rendimiento actual NAND.
Además se comenta que tienen un tiempo de vida de hasta 1.000.000 de escrituras, muy superior (10 veces) a los tiempos medios de vida NAND.
________________________
jueves, 22 de abril de 2010
Los analistas afirman que Apple podría comprar AMD
El otro día salió el rumor de que AMD y Apple estaban en conversaciones lo que llevó a pensar que Apple podría integrar chips AMD en sus siguientes líneas de portátiles MacBook y equipos iMac. Sin embargo, los analistas piensan que detrás de las charlas hay mucho más que ello.
Apple tiene suficiente poder económico como para hacerse con AMD, lo que daría a Apple una entrada triunfal en el sector del hardware y una mayor libertad, dejando de tener que contar con terceros como Intel o NVIDIA, para lanzar nuevos productos.
Según parece Apple podría estar cerrando un trato de adquisición, algo que si bien de momento no pasa de rumor, sí que podemos confirmar que sería un bombazo dentro del mercado tecnológico global. Apple tendría nuevos frentes de batalla y tendría hardware CPU y GPU como para hacer frente tanto a Intel como a NVIDIA.
miércoles, 21 de abril de 2010
ABS Plastic - Acrilonitrilo butadieno estireno
El Acrilonitrilo Butadieno Estireno o ABS es un plástico muy resistente al impacto (golpes) muy utilizado en automoción y otros usos tanto industriales como domésticos. Es un termoplástico amorfo.
Se le llama plástico de ingeniería, debido a que es un plástico cuya elaboración y procesamiento es más complejo que los plásticos comunes, como son las polioleofinas (polietileno, polipropileno).
_____________________________________________
HP Designjet 3D Printer Now On Sale, Churns Out Solid Plastic Objects From the Desktop
HP's Designjet 3D Printer HP
Remember back in January when HP announced it would bring a tabletop 3-D printer to market, at a place and time to be named later? That place and time just became a quite a bit less ambiguous. Today Stratasys, the company that is manufacturing the device for HP, announced that it has shipped the first units of the HP-branded Designjet 3D fabrication machines, which will be available in May -- but only in Europe.
The Designjet 3D is based on Stratasys's Fused Deposition Modeling (FDM) technology, which turns three-dimensional CAD drawings into tangible prototypes by extruding partially molten ABS plastic in extremely fine layers one atop the other, forming the entire 3-D model in a single piece from the ground up. Designjet 3D will print in ivory-colored plastic only while Designjet Color 3D will print single-color parts in up to eight different colors (we're not sure why you can't just put a different hue of ABS plastic in the Designjet 3D).
_______________________________________________________
martes, 20 de abril de 2010
¿Por qué los SSD no bajan de precio?
Las unidades de estado sólido siguen captando el interés de la industria y los usuarios, pero sus precios se mantienen demasiado altos para la mayoría de los bolsillos, una situación que comienza a ser extraña, sobre todo después de que hayan pasado varios meses sin cambios realmente apreciables.Steve Weinger, director de márketing de chips flash NAND en Samsung, ha comentado que en 2007 y 2008 hubo una “sobreoferta de NAND. El problema fue que nadue estaba ganando dinero con NAND ni con la industria de las memorias en ese momento”. Las empresas que trabajaban con esos productos pidieron demasiados chips y acabaron perdiendo dinero con las unidades vendidas.
De hecho, los precios de las memorias NAND crecieron un 127% en el segundo trimestre de 2009, lo que causó un problema adicional que hizo que de nuevo las unidades no pudieran bajar de precio. Se espera que esos efectos y errores iniciales se corrijan en los próximos meses, cuando realmente veremos cómo este tipo de dispositivos se vuelven más y más asequibles.
domingo, 18 de abril de 2010
Primeras evidencias de que los procesos cuánticos generan números verdaderamente aleatorios
Los generadores cuánticos de números aleatorios producen números aleatorios cuya aleatoreidad es diferente de los que generan los ordenadores convencionales.
Existe una sensación creciente en los físicos de que los procesos físicos pueden plantearse en términos de la información que éstos almacenan e intercambian; y para algunos la cantidad de información es la unidad básica de existencia en nuestro cosmos. Esta clase de planteamiento tiene implicaciones extraordinarias: significa que la realidad es una suerte de computación en la que los procesos básicos que entran en juego simplemente encuentran el camino a través de una vasta base de información.
Y esto choca contra otro de los grandes desafíos a los que se enfrenta la ciencia moderna: entender la naturaleza de la aleatoriedad. Mientras que la información se puede definir como una estructura secuencial y ordenada de símbolos, la aleatoriedad es lo opuesto al orden, la ausencia de un patrón. Una de las características principales de una aleatoriedad verdadera es que no puede ser generada por un ordenador, en cuyo caso no sería realmente aleatorio lo cual nos lleva a un problema muy apetitoso.
¿Si todos los procesos físicos del universo son procesos computacionales en curso, de dónde viene la aleatoriedad? ¿Qué tipo de procesos pueden ser los responsables de su creación?
Hasta hace poco, los matemáticos únicamente han podido estudiar la aleatoriedad generada por procesos en física clásica tales como lanzar una moneda o programas de ordenador que generan la llamada pseudo-aleatoriedad. Dado que es complicado demostrar la imparcialidad en los procesos físicos como lanzamientos de moneda además de ser complicados de llevar a cabo, el caballo de tiro de los números aleatorios suelen ser programas como Mathematica que utiliza las interesantes propiedades de los autómatas celulares para obtener secuencias pseudoaleatorias de números. Otro método es simplemente elegir una secuencia de números de los dígitos de un número irracional como Pi.
Todo esto tiene pinta de aleatorio, pero dado que puede ser computado, los matemáticos lo tratan con escepticismo.
Pero en los últimos años, se ha encontrado un nuevo tipo de aleatoriedad que no puede ser generada por un programa de un ordenador convencional. Se llama algoritmia aleatoria y es la punta de lanza cuando se trata de ausencia del orden. Este nuevo tipo de aleatoriedad tiene un origen, que es el mundo cuántico y viene de explorar procesos cuánticos tales como un fotón siendo transmitido o reflejado por un espejo semiplateado.
Esto conduce a producir secuencias que nunca podrán ser generadas por un ordenador clásico. ¿Pero es posible cuantificar la diferencia entre estas secuencias y las producidas por un ordenador convencional?
Esta pregunta ha sido respondida hoy pro Cristian Calude en la University of Auckland en Nueva Zelanda y algunos de sus colegas. Estas personas han obtenido la primera comparación experimental entre la aleatoriedad generada de estas formas diferentes ylo han hecho en una escala muy grande, usando secuencias de
de longitud (N. del T. unos 4 millones de cifras).
Calude y co comparan distintos tipos de secuencias aleatorias generadas de diferente manera. Estas secuencias vienen de un generador cuántico de números aleatorios llamado Quantis, y de otro de físicos de Viena que han explotado procesos cuánticos usando secuencias convencionales de programas de ordenador como Mathematica y Maple además de secuencias de
dígitos de una expansión binaria de pi.
El equipo ha utilizado cuatro tipos distintos de pruebas en las comparaciones, que llevan a cuatro categorías basándose en la teoría algorítmica de la información, pruebas estadísticas que involucran conteos de frecuencias, un test basado en la teoría de la información de Shannon y, finalmente, una prueba basada en camino aleatorio.
Los resultados muestran que las secuencias generadas por Quantis son fácilmente distinguibles de los demás grupos de datos. Dicen Calude y co que esto evidencia que la aleatoriedad cuántica es de hecho incomputable. Esto implica que no pueden ser generados por un ordenador.
Dejan sin responder la pregunta de cuan convincente es esta evidencia que han hallado en lugar de ir más allá a probar que realmente es imposible demostrar la aleatoriedad absoluta haciendo uso de un ordenador.
Pese a todo, si se toma en consideración esta evidencia, nos deja con un dilema conceptual significativo. Por una parte, muestra que Quantis produce secuencias de números aleatorios no generables por un ordenador. Y por la otra, Quantis es una máquina que debe trabajar manipulando información en el sentido que permiten las leyes de la Física, por tanto debe ser algo parecido a un ordenador.
Esta contradicción únicamente puede significar que hay algo raro en la forma que pensamos sobre la aleatoriedad o en la información o en ambas (o al menos en la manera en la que se han descrito aquí).
Por supuesto, la respuesta debe subyacer en la naturaleza de la información en el mundo cuántico. Es fácil definir la información clásicamente como una secuencia ordenada de símbolos. Pero esta definición se cae en pedazos en cuanto esos símbolos pertenecen al mundo cuántico.
Si cada bit puede ser 1 y 0 al mismo tiempo, ¿qué significa eso para cada una de las secuencias ordenadas? Igualmente ¿qué aspecto tiene la ausencia de orden en una secuencia cuántica de ese tipo?
Es en la respuesta de esas preguntas que la naturaleza de nuestro universo parece bromear.
Ref: arxiv.org/abs/1004.1521: Experimental Evidence of Quantum Randomness Incomputability
Traducción libre de: First Evidence That Quantum Processes Generate Truly Random Numbers, en Technology Review.
viernes, 16 de abril de 2010
Computación en nube para las pymes
Hardware y software que se accede por Internet, sus ventajas y desventajas en el mundo real
Cloud computing o computación en nube se llama a la posibilidad de utilizar recursos compartidos de software o hardware por medio de Internet; esto es, sin contar con instalaciones localmente. "Los usuarios pueden conectarse a la nube y tomar los recursos que necesiten, en la forma y el momento en que lo dispongan", resume Marcelo Fandiño, gerente regional para Cono Sur de EMC.
"Se trata de un nuevo modelo de consumo de tecnologías de la información, en el cual todo -los servidores, las aplicaciones, los respaldos, el mantenimiento- es ofrecido como un servicio", detalla Joel Chornik, fundador y director de Elserver, empresa argentina que provee servicios y plataformas online.
De esta manera, un usuario o una empresa pueden alquilar capacidad e infraestructura en el momento en que lo necesiten, sin invertir en la compra de equipos, sistemas de almacenamiento, y despreocupándose, al mismo tiempo, de la conectividad y seguridad física de los equipos.
"Existen tres modelos de Cloud Computing en auge, IaaS, PaaS y SaaS, por sus siglas en inglés. Cada uno está orientado a un público distinto", enumera Chornik.
Infraestructura Como Servicio (IaaS) está dirigido a proveedores de servicio, e implica la provisión de infraestructura de base, como sistemas de almacenamiento, routers, firewalls y servidores, sobre lo que un proveedor luego puede montar sus aplicaciones y servicios.
Plataforma Como Servicio (PaaS), ofrece plataformas de desarrollos llave en mano, sobre la que directamente se pueden instalar o desarrollar aplicaciones, sin necesidad de preocuparse por el hardware que las sostiene.
Software Como Servicio (SaaS) provee soluciones de software completas, como servicio, vía Internet. "Ejemplos de esto son Google Apps, que ofrece herramientas similares a Word y Excel , pero por medio del navegador, y proveedores de Web hosting, que ofrecen servicios de correo Web, calendario y mensajería corporativa, entre otras herramientas", comenta el director de Elserver.
Oferta local
En la Argentina ya es posible contratar servicios en nube a proveedores que tengan sus centros de datos en otras partes del mundo, pero aún son pocas las empresas locales que ofrecen servicios en cualquiera de sus modalidades. Entre ellas se encuentran Elserver, que provee servicios y plataformas online, y Telextorage, que comercializa e implementa soluciones de almacenamiento y respaldo de datos, virtualización, duplicación, software para administración y respaldo de la información.
Otra de las empresas que ofrece soluciones online es Hitachi Data Systems. "Nuestra compañía cuenta con tecnología que permite que las firmas tengan su propia nube o cloud privada. Es decir que puedan contar de forma centralizada con una plataforma de almacenamiento heterogéneo integrada que cumpla con los diferentes requerimientos de rendimiento, disponibilidad y escalabilidad", afirma Patricia Liñan, consultora en Soluciones de Almacenamiento de esa empresa.
Por su parte, VMware, parte de EMC, ofrece soluciones de virtualización. "Hoy muchos datacenters están en un proceso de cambio, migrando a infraestructuras basadas en virtualización. Estos datacenters virtuales, construidos bajo ciertas premisas, también podrán hacer uso de recursos de un proveedor de cloud computing", asegura Fandiño.
Luces y sombras
"El modelo de cloud computing permite que las empresas puedan utilizar tecnología de avanzada a bajo costo, sin barreras de entrada y rápidamente. Como contrapartida, entre sus desventajas se destaca el menor control físico de los datos y la necesidad de tomar nuevos recaudos para proteger la información. El tiempo mostrará para qué lado se inclinará la balanza, aunque considero que contar con capacidad de procesamiento y aplicaciones a medida, y a bajo costo, será motor suficiente para resolver cualquier desventaja que pueda encontrarse", resumió el fundador de Elserver.
Al referirse a la situación actual del mercado, Liñan destacó: "Las empresas locales ya están evaluando beneficios operativos y económicos a través de la adopción de una estrategia de cloud". Sobre las expectativas existentes en el sector, Mariano Denaro, presidente de TelexTorage, dijo que ciertos productos clave que permiten este tipo de servicios ya han alcanzado la madurez necesaria para brindar esquemas confiables y rentables. "Es fundamental que los responsables de IT y los CEO de las empresas entiendan que la infraestructura de sistemas debe estar orientada al negocio y ser ágil. El negocio necesita de sistemas, y éste debe responder en forma acorde", concluye.
Cintia Perazo
Cloud computing o computación en nube se llama a la posibilidad de utilizar recursos compartidos de software o hardware por medio de Internet; esto es, sin contar con instalaciones localmente. "Los usuarios pueden conectarse a la nube y tomar los recursos que necesiten, en la forma y el momento en que lo dispongan", resume Marcelo Fandiño, gerente regional para Cono Sur de EMC.
"Se trata de un nuevo modelo de consumo de tecnologías de la información, en el cual todo -los servidores, las aplicaciones, los respaldos, el mantenimiento- es ofrecido como un servicio", detalla Joel Chornik, fundador y director de Elserver, empresa argentina que provee servicios y plataformas online.
De esta manera, un usuario o una empresa pueden alquilar capacidad e infraestructura en el momento en que lo necesiten, sin invertir en la compra de equipos, sistemas de almacenamiento, y despreocupándose, al mismo tiempo, de la conectividad y seguridad física de los equipos.
"Existen tres modelos de Cloud Computing en auge, IaaS, PaaS y SaaS, por sus siglas en inglés. Cada uno está orientado a un público distinto", enumera Chornik.
Infraestructura Como Servicio (IaaS) está dirigido a proveedores de servicio, e implica la provisión de infraestructura de base, como sistemas de almacenamiento, routers, firewalls y servidores, sobre lo que un proveedor luego puede montar sus aplicaciones y servicios.
Plataforma Como Servicio (PaaS), ofrece plataformas de desarrollos llave en mano, sobre la que directamente se pueden instalar o desarrollar aplicaciones, sin necesidad de preocuparse por el hardware que las sostiene.
Software Como Servicio (SaaS) provee soluciones de software completas, como servicio, vía Internet. "Ejemplos de esto son Google Apps, que ofrece herramientas similares a Word y Excel , pero por medio del navegador, y proveedores de Web hosting, que ofrecen servicios de correo Web, calendario y mensajería corporativa, entre otras herramientas", comenta el director de Elserver.
Oferta local
En la Argentina ya es posible contratar servicios en nube a proveedores que tengan sus centros de datos en otras partes del mundo, pero aún son pocas las empresas locales que ofrecen servicios en cualquiera de sus modalidades. Entre ellas se encuentran Elserver, que provee servicios y plataformas online, y Telextorage, que comercializa e implementa soluciones de almacenamiento y respaldo de datos, virtualización, duplicación, software para administración y respaldo de la información.
Otra de las empresas que ofrece soluciones online es Hitachi Data Systems. "Nuestra compañía cuenta con tecnología que permite que las firmas tengan su propia nube o cloud privada. Es decir que puedan contar de forma centralizada con una plataforma de almacenamiento heterogéneo integrada que cumpla con los diferentes requerimientos de rendimiento, disponibilidad y escalabilidad", afirma Patricia Liñan, consultora en Soluciones de Almacenamiento de esa empresa.
Por su parte, VMware, parte de EMC, ofrece soluciones de virtualización. "Hoy muchos datacenters están en un proceso de cambio, migrando a infraestructuras basadas en virtualización. Estos datacenters virtuales, construidos bajo ciertas premisas, también podrán hacer uso de recursos de un proveedor de cloud computing", asegura Fandiño.
Luces y sombras
"El modelo de cloud computing permite que las empresas puedan utilizar tecnología de avanzada a bajo costo, sin barreras de entrada y rápidamente. Como contrapartida, entre sus desventajas se destaca el menor control físico de los datos y la necesidad de tomar nuevos recaudos para proteger la información. El tiempo mostrará para qué lado se inclinará la balanza, aunque considero que contar con capacidad de procesamiento y aplicaciones a medida, y a bajo costo, será motor suficiente para resolver cualquier desventaja que pueda encontrarse", resumió el fundador de Elserver.
Al referirse a la situación actual del mercado, Liñan destacó: "Las empresas locales ya están evaluando beneficios operativos y económicos a través de la adopción de una estrategia de cloud". Sobre las expectativas existentes en el sector, Mariano Denaro, presidente de TelexTorage, dijo que ciertos productos clave que permiten este tipo de servicios ya han alcanzado la madurez necesaria para brindar esquemas confiables y rentables. "Es fundamental que los responsables de IT y los CEO de las empresas entiendan que la infraestructura de sistemas debe estar orientada al negocio y ser ágil. El negocio necesita de sistemas, y éste debe responder en forma acorde", concluye.
Cintia Perazo
lunes, 12 de abril de 2010
Las paradojas del cementerio TIC
Las paradojas del cementerio TIC
09-04-2010
Por María Prieto
Las nuevas tecnologías se disfrazan de verde con iniciativas que promueven el uso responsable del papel mientras que son responsables de la generación de 4.000 toneladas de residuos electrónicos tóxicos cada hora.
“Antes de imprimir este documento piense bien si es necesario hacerlo, el medio ambiente es cosa de todos”. Gestos como el de incluir este mensaje al final de un correo electrónico han contribuido, sin lugar a dudas, a un mayor compromiso ecológico por parte de los usuarios.También lo han hecho inventos como el email, el libro electrónico o el periódico online, que han favorecido la reducción del uso de papel. Pese a todo, el sector de las nuevas tecnologías continúa haciendo un gran daño al medio ambiente.
Es lo que podríamos denominar “la paradoja de las TIC”: la que por un lado promueve una reducción en el uso de papel mientras que por otro genera, según Greenpeace, 4.000 toneladas de residuos electrónicos tóxicos cada hora.
La basura electrónica, integrada por desechos procedentes de equipos informáticos, televisores, teléfonos móviles y otros dispositivos, supone uno de los grandes problemas ecológicos de nuestro tiempo. Según un informe elaborado por el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA), la generación de este tipo de residuos, crece en el mundo a un ritmo de alrededor de 40 millones de toneladas por año. En la Europa de los 27, el ritmo de crecimiento oscila entre las 8 y las 9,1 toneladas anuales. China y EE.UU. son los principales generadores de basura electrónica en el mundo.
Ante estas cifras meteóricas, la ONU ha lanzado una advertencia clara: o se toman medidas o esta situación generará graves riesgos para el medio ambiente y la salud pública, principalmente en los países en desarrollo.
Se teme que los Países del Sur se conviertan en “cibervertederos” de los países industrializados, ya que a estos les resulta más barato exportar su chatarra electrónica que reciclarla. No sería la primera vez que países del denominado “Primer Mundo” envían sus residuos informáticos a países menos desarrollados violando leyes internacionales como el Convenio de Basilea.
De hecho, Naciones Unidas ha denunciado que tanto EE.UU. como Europa han llegado a enviar ordenadores “inservibles” a países africanos a modo de donación, una práctica que Greenpeace denuncia internacionalmente desde hace años. India, China o Ghana son destinos habituales de la basura electrónica de países más desarrollados como Reino Unido, Japón o Estados Unidos.Greenpeace estima que tan solo en Nueva Delhi existen 25.000 trabajadores en los vertederos donde cada año, adultos y niños, manipulan entre 10.000 y 20.000 toneladas de productos tóxicos.
Julio Barea, responsable de la campaña de basura electrónica de Greenpeace, nos confirma que la organización trabaja desde hace años a favor de la eliminación de este tipo de residuos. Lo hace principalmente en dos frentes: por una parte, denunciando el tráfico de chatarra electrónica a terceros países y, por otra, trabajando con las principales empresas fabricantes de productos electrónicos, para que se responsabilicen de sus residuos.
“Llevamos 14 ediciones elaborando el ranking verde de electrónicos” -indica Julio Barea- una guía que informa sobre el comportamiento de las principales empresas fabricantes de electrónica en materia de eliminación de químicos peligrosos, eficiencia energética y compromiso que tienen las marcas de retirar y reciclar correctamente sus residuos una vez que los usuarios dan por finalizada la vida útil del dispositivo. En 2009, el número uno del ranking en 2009 lo ocupa Nokia.
La empresa se mantiene en el primer puesto a pesar de que su puntuación se ha reducido en comparación con otros años. Perdió un punto por no hacer presión para la revisión de la Directiva Europea sobre la Restricción de ciertas Sustancias Peligrosas en aparatos eléctricos y electrónicos. Sin embargo, el hecho de haber desarrollado una batería que se recarga gracias al movimiento del cuerpo, parece haberle ayudado a mantenerse en la primera posición.
También Dell, que ocupa en 2009 el décimo cuarto puesto en el ranking elaborado por Greenpeace, apuesta por soluciones verdes. Fue el primer fabricante tecnológico que prohibió la exportación de residuos electrónicos desde países desarrollados a países no desarrollados, ni directamente, ni a través de intermediarios. La empresa, que en 2009 gestionó aproximadamente 190.000 kg de residuos informáticos a nivel mundial, prima la reutilización de todos los equipos, sus partes y componentes. La última opción, asegura Laura Alonso, responsable de medio ambiente de Dell España, es siempre la reutilización energética, es decir, la incineración.
Dell ofrece a los consumidores el reciclaje de ordenadores e impresoras de cualquier marca sin coste alguno en caso de que se produzca una compra de un equipo nuevo de marca Dell y de cualquier equipo Dell, con o sin compra. También ofrece a los consumidores la opción de donar sus ordenadores viejos a organizaciones sin ánimo de lucro.
Ordenadores con más de una vida
La reutilización es la primera de las opciones que se contempla cuando un usuario se deshace de su equipo. En la mayoría de los casos, debido a que las empresas duplican la potencia de los ordenadores en tiempo récord, éstos acaban convirtiéndose en residuos aún cuando son valiosos y funcionan a la perfección.
Conscientes de ello, algunos organismos reciben el material informático, lo revisan, lo acondicionan y lo entregan a ONG y a asociaciones sin ánimo de lucro para favorecer la integración social y digital de los colectivos más vulnerables de la sociedad. Un ejemplo de este tipo de instituciones es la Fundación Bip Bip, que desde el año 2000 ha puesto en marcha 2.132 aulas que han favorecido a casi 600.000 personas en España y en otros países de América Latina, Asia y África.
El pasado año la Fundación Bip Bip gestionó alrededor de 2.000 equipos procedentes, en su mayoría, de empresas. Una vez se comprobó su perfecto funcionamiento, se entregaron a ONG u asociaciones que habían presentado un proyecto de uso de los equipos. “Sin proyecto no hay donación”, asegura May Escobar, Directora General de la Fundación Bip Bip.
Una vez realizada la donación, la Fundación realiza un seguimiento de los equipos durante un año. Pasado ese plazo, la ONG pasa a ser dueña de los ordenadores y se compromete por escrito a reciclar los aparatos según la normativa vigente al final de su vida útil. Según afirma Escobar, en España las organizaciones de personas mayores y de mujeres son las principales receptoras de ordenadores de segunda mano. En el extranjero, las entidades educativas son las que más demandan estos equipos.
Hace dos años los consumidores españoles podríamos haber sido descritos como grandes consumidores de tecnología. Hoy, sin embargo, con la actual coyuntura de crisis, parece que se ha frenado el ritmo de compra de productos electrónicos. May Escobar lo confirma. “La crisis se nota de forma alarmante. En la actualidad hay personas que no se plantean la donación, los usuarios alargan más la vida de sus equipos y algunos incluso apuestan por el remarketing de su ordenador usado”, confiesa la Directora General de la Fundación Bip Bip. A pesar de que todavía no cuentan con cifras oficiales, desde la Fundación estiman que están recibiendo como mínimo un 50% menos de equipos que antes de la crisis.
Si en algún momento llegó a pensar que la crisis económica podría favorecer la reducción de residuos electrónicos, quítese la idea de la cabeza. El patrón de descenso en el consumo y de mayor aprovechamiento de los equipos que se registra en España no se traslada a escala mundial: la consultora de tecnología Gartner prevé que este año las ventas de ordenadores se incrementen en un 19,7% hasta alcanzar la comercialización de 336,1 millones de nuevos equipos.
¿Soluciones? Haberlas haylas y desde Greenpeace nos indican que son bastante lógicas. Se trata de que las empresas se comprometan a mejorar sus productos y a hacerlos más verdes y de que los consumidores sean responsables de lo que compran, siendo conscientes de que deben darle el máximo de vida posible al producto y deshacernos de nuestras compras en lugares que garanticen una buena recuperación y gestión del mismo.
© 2000 - 2010 Siliconnews.es - NetMediaEurope Spain S.L. Todos los derechos reservados.
jueves, 8 de abril de 2010
Memristor
Memristor
En teoría de circuitos eléctricos, el memristor es un elemento de circuito pasivo. Ha sido descrito como el cuarto elemento de los circuitos pasivos, Junto con los tres mejor conocidos: el condensador, la resistencia y el inductor.1 El nombre es una palabra compuesta de memory resistor (resistencia-memoria).
Avances en memristors - H.P. Sees a Revolution in Memory Chip
H.P. Sees a Revolution in Memory Chip
By JOHN MARKOFF
PALO ALTO, Calif. — Hewlett-Packard scientists on Thursday are to report advances in the design of a new class of diminutive switches capable of replacing transistors as computer chips shrink closer to the atomic scale.
The devices, known as memristors, or memory resistors, were conceived in 1971 by Leon O. Chua, an electrical engineer at the University of California, Berkeley, but they were not put into effect until 2008 at the H.P. lab here.
They are simpler than today’s semiconducting transistors, can store information even in the absence of an electrical current and, according to a report in Nature, can be used for both data processing and storage applications.
The researchers previously reported in The Proceedings of the National Academy of Sciences that they had devised a new method for storing and retrieving information from a vast three-dimensional array of memristors. The scheme could potentially free designers to stack thousands of switches in a high-rise fashion, permitting a new class of ultradense computing devices even after two-dimensional scaling reaches fundamental limits.
Memristor-based systems also hold out the prospect of fashioning analog computing systems that function more like biological brains, Dr. Chua said.
“Our brains are made of memristors,” he said, referring to the function of biological synapses. “We have the right stuff now to build real brains.”
In an interview at the H.P. research lab, Stan Williams, a company physicist, said that in the two years since announcing working devices, his team had increased their switching speed to match today’s conventional silicon transistors. The researchers had tested them in the laboratory, he added, proving they could reliably make hundreds of thousands of reads and writes.
That is a significant hurdle to overcome, indicating that it is now possible to consider memristor-based chips as an alternative to today’s transistor-based flash computer memories, which are widely used in consumer devices like MP3 players, portable computers and digital cameras.
“Not only do we think that in three years we can be better than the competitors,” Dr. Williams said. “The memristor technology really has the capacity to continue scaling for a very long time, and that’s really a big deal.”
As the semiconductor industry has approached fundamental physical limits in shrinking the size of the devices that represent digital 1’s and 0’s as on and off states, it has touched off an international race to find alternatives.
New generations of semiconductor technology typically advance at three-year intervals, and today the industry can see no further than three and possibly four generations into the future.
The most advanced transistor technology today is based on minimum feature sizes of 30 to 40 nanometers — by contrast a biological virus is typically about 100 nanometers — and Dr. Williams said that H.P. now has working 3-nanometer memristors that can switch on and off in about a nanosecond, or a billionth of a second.
He said the company could have a competitor to flash memory in three years that would have a capacity of 20 gigabytes a square centimeter.
“We believe that that is at least a factor of two better storage than flash memory will be able to have in that time frame,” he said.
The H.P. technology is based on the ability to use an electrical current to move atoms within an ultrathin film of titanium dioxide. After the location of an atom has been shifted, even by as little as a nanometer, the result can be read as a change in the resistance of the material. That change persists even after the current is switched off, making it possible to build an extremely low-power device.
The new material offers an approach that is radically different from a promising type of storage called “phase-change memory” being pursued by I.B.M., Intel and other companies.
In a phase-change memory, heat is used to shift a glassy material from an amorphous to a crystalline state and back. The switching speed of these systems is slower and requires more power, the H.P. scientists say.
por : Javier Pastor: 08 Abr 2010, 8:55
Los pequeños interruptores capaces de sustituir a los transistores como elemento básico de la producción de circuitos electrónicos siguen avanzando en su desarrollo, y HP ha anunciado nuevos avances en esta tecnología.
Estos memristors o “memory resistors”, se idearon en 1971 por parte de Leon O. Chua, un ingeniero eléctrico de la Universidad de California en Berkeley, pero no se aplicaron de forma práctica y real hasta el año 2008.
Los investigadores de HP han estado trabajando desde hace años en dichos desarrollos, y han elaborado un método para almacenar y recolectar información de una matriz inmensa y tridimensional de memristors. Eso podría dar lugar a dispositivos con una configuración de memristors ultradensa y con aplicaciones y prestaciones muy prometedoras.
___________________________________________________________________________
Suscribirse a:
Entradas (Atom)