LA DIFICIL CUADRATURA DEL CÍRCULO MACROECONÓMICO Y SU APLICACIÓN EN EUROPA Y ESPAÑA
Los principales demandantes de la economía en un país son: los consumidores o economías domésticas (C), los empresarios que determinan la Inversión (I), el sector exterior (Exportaciones «X» menos Importaciones «M»), más la demanda del Sector Público (Gastos «G» menos Ingresos «T» públicos). Por lo tanto, la demanda total de la economía es la agregación de la demanda de todos estos cuatro grandes demandantes o «sujetos de decisión económica», denominada Demanda Agregada:
Da = C + I + (G -T) + (X – M)
Por otro lado, la política monetaria se define como aquella que pretende controlar la cantidad de dinero que existe en la economía (volumen) y los tipos de interés (precio del dinero). En España, así como en otros países de la zona Euro desde la constitución de la Unión Económica y Monetaria Europea, se ha pasado por una política monetaria muy centrada en el Gobierno, que la definía para que la ejecutara el Banco de España, hasta la situación actual en que ni siquiera se define en nuestro país, sino que pasa a ser una política común, donde el Banco de España pasa a ser un mero ejecutor de la política monetaria que le viene marcada por el Banco Central Europeo (BCE), centrada en la estabilidad de precios (control de la inflación) y el crecimiento económico. Además ya no se pueden hacer devaluaciones competitivas de la propia moneda, ya que no se tiene soberanía en la moneda europea, por lo que en base a lo anterior, para que un país de la zona Euro sea competitivo con el exterior sólo puede realizar una devaluación competitiva interna, llevando a cabo recortes, entre otros, en gastos sociales, salarios, etc., para poder ser más productivos y competir con el exterior.
Es decir, se ha perdido un grado de libertad, y sólo tenemos como grado de libertad la política presupuestaria del Gobierno, a través de la política fiscal.
Desde Europa se puede manejar la política monetaria a través del BCE, pudiendo optar por una política monetaria “expansiva”, mayor consumo (C) e inversión (I), pero peligro por el aumento de la inflación. O por una política monetaria “contractiva”, menor consumo (C) e inversión (I), pero a su vez propiciando una mayor estabilidad de precios (control de la inflación).
Desde España, se puede manejar y controlar la política fiscal, pudiendo optar por una política fiscal “expansiva”, mayor crecimiento económico y actividad, pero peligro de aumento del déficit público. O por una política fiscal “contractiva”, menor crecimiento económico y de menor productividad del país, pero por otro lado daría lugar a una reducción del déficit público y de estabilidad de precios.
Todo lo anterior no es matemático y es difícil de cuadrar y de satisfacernos a todos los sujetos interesados por igual, ya que hacia ambas opciones “expansivo” o “contractivo”, tiene sus ventajas y desventajas, por lo tanto ¿Cómo podemos hacer la cuadratura del círculo macroeconómico y aplicarlo en Europa?, porque no hacer de nuevo una versión del “Plan Marshall” a la europea.
El Plan Marshall (1948-1952) fue clave para la reconstrucción de Europa después de la 2ª Guerra Mundial, tan fuertemente destruida, que consistió básicamente en una oferta económica a Europa por parte de EEUU (13.000 M$ el 2,5% PIB EEUU en dicho momento), cuyo reparto fue decisión de los propios países europeos, en el que España no entró, y que fue clave en el pasado S.XX. sobre todo por:
1) El propio interés de EEUU, con carácter algo egoísta, para dar salida de sus excedentes productivos a Europa.
2) EEUU necesitaba a la Europa como interlocutor comercial, ya que si no funcionaba Europa, EEUU no podría funcionar.
3) Las decisiones que se establecieron entre los años 1947-1949, marcaron la “imagen” del mundo hasta básicamente la caída del muro de Berlín, a principios de la década de los 90.
Además no hay que olvidar que dicho plan constituía una barrera fuerte al crecimiento del régimen comunista en dichos años de postguerra, y que por otro lado sentaba las bases para posteriores acuerdos entre EEUU y Europa, ¿Por qué no hacerlo ahora de nuevo en Europa?
El momento actual, nada tiene que ver y está muy lejos de las penurias que se vivieron en el periodo de postguerra de la 2ª Guerra Mundial, ya que ahora es una crisis económica de endeudamiento en los países, pero si se podría optar por un programa de estímulo por parte de la Unión Europea que sirviera de combustible comercial para la zona Euro. En este sentido, ya ha habido alguna iniciativa, como la de la pasada “Cumbre de Roma” de junio de 2012, donde la UE decidió destinar 130.000 M€ (equivalente al 1% del PIB de la UE).
Creo que ahora desde Europa, y encabezado por Francia y Alemania, los primeros porque siempre han apostado por la unión monetaria como un instrumento hacia una mayor integración europea, de solidaridad y de crecimiento sostenible, los segundos porque han apostado por la disciplina fiscal (ortodoxia fiscal), la estabilidad monetaria (control de la inflación) y la unión política federal como aspectos que dan solidez a la unión monetaria, y por el propio interés del resto de países de la zona Euro, como España, se debería apostar ya por un nuevo plan de estímulo del crecimiento en la Unión Europea desde Europa, con una nueva e importante oferta económica a Europa, conjugando los intereses anteriores, para:
1) Dar salida de los excedentes productivos de Europa hacia el exterior, creciendo sobretodo las exportaciones (X) y reduciendo las importaciones (M).
2) Todos los países necesitan de Europa como interlocutor comercial, fortaleciendo el conjunto de sus propias redes comerciales, ya que si no funciona Europa, los países de la zona Euro, como España, no puede funcionar. Aumentaría el Consumo (C) y la Inversión (I) de los países de la zona Euro, siempre manteniendo la estabilidad de precios (inflación), en la medida posible, y el control del déficit público (G-T).
3) Todo lo anterior marcaría, una nueva “imagen” económica, social y política de Europa y del mundo del S. XXI.
Lo único que en esta ocasión, sólo espero que España no se quedara fuera de éste reparto y pasaran de largo los “americanos” como entonces, y esta vez si se pudiera cantar “Bienvenido Mr. Marshall a la europea” y “europeos os recibimos con alegría….”.
ESPAÑA 2020. VISIÓN GENERAL Y PROPUESTAS DE ACTUACIÓN
El objeto de este post es dar a conocer la posible situación económica que existirá en España en el plazo de unos años, así como exponer una visión de algunos de los aspectos más relevantes de la situación actual. Finalmente se realizan propuestas de actuación a nivel de país, empresa y trabajador.
Nuestro país está inmerso en una situación económica adversa, y, según previsiones del FMI el PIB existente en España en 2008 no será recuperado antes de 2018, lo que, si dichas previsiones se confirman, supondrá en lo relativo a crecimiento económico al menos una década perdida. En comparación con otros países de la Unión Europea, siempre según previsiones FMI, tras una fase general de ciclo negativo, los plazos para retomar el PIB existente antes de 2008 son significativamente menores, con valores típicos en Europa de 2 a 5
años.
En cuanto al bienestar social, existen previsiones de tres décadas perdidas para retomar la situación previa a 2008.
El problema de endeudamiento privado es grave, y los procesos de desendeudamiento, aunque en marcha, son lentos, lo que supondrá un lastre para la demanda interna. Los efectos de dicho endeudamiento se agravan por la devaluación competitiva interna que está ocurriendo en el país.
Existe un proceso de envejecimiento de la población que empobrecerá la sociedad, aunque a más largo plazo.
El equilibrio de la balanza de pagos, tras muchos años de desequilibrio, y la evolución de las exportaciones son un punto de esperanza. El superávit comercial puede ser un indicador adelantado de otras buenas noticias económicas.
Existe capacidad técnica y financiera (aunque temporalmente debilitada por el endeudamiento) para que España pueda salir adelante.
Las empresas tendrán problemas de inversión para apoyar este aumento de exportaciones debido a su endeudamiento. Una ayuda muy importante sería la inversión extranjera. España debe cuidar la seguridad jurídica para atraer este tipo de operaciones. La apertura de nuestra economía a fusiones y adquisiciones es un aspecto positivo en este sentido.
Propuesta de actuación para el país.
César Molinas propone en el libro ¿Qué hacer con España? un Plan Marshall moderno basado en investigación, desarrollo, innovación, educación y emprendimiento.
Propuesta de actuación para las empresas.
Ante el lastre para la demanda interna que supone el endeudamiento, las empresas deberían buscar por una parte la exportación para aumentar ventas, y por otra la eficiencia para aumentar los beneficios en los mercados en los que las ventas no crezcan. La innovación puede ser también una vía de crecimiento, aunque sin comprometer la robustez financiera.
Propuesta de actuación para los trabajadores.
Según palabras del presidente de una importante empresa del sector renovables, ante las dificultades actuales en su sector indicó que son una empresa tecnológica y que irán allí donde sople el viento. Si consideramos al trabajador como una empresa unipersonal, el enfoque puede ser parecido: cuidar la capacidad para aportar valor en un mercado global (se trabaje dentro o fuera del país), para empezar vía formación en idiomas, pero no solo; la educación de alta calidad, por ejemplo un postgrado en EOI, y el hábito del emprendimiento (por cuenta ajena o propia) son buenos fundamentos para enfrentar esta época, marcada por la incertidumbre. Por otra parte, en un mundo cuyo PIB previsiblemente se duplicará en los próximos 20 años, y en plena revolución tecnológica, existen también enormes oportunidades.
EL PLAN DE ESTABILIZACION DE 1.959
Desde mediados de los años cincuenta, se hizo evidente que el modelo autárquico de desarrollo económico español adoptado desde el final de la Guerra Civil, no era viable; el crecimiento económico de España necesitaba del exterior:
- España necesitaba importar productos energéticos y bienes de equipo. La industrialización era imposible sin una creciente importación de estos productos.
- Como consecuencia de estas importaciones, la balanza comercial española tuvo un saldo cada vez más negativo, al tiempo que la inflación se situaba en niveles muy elevados y los recursos financieros eran cada vez más escasos.
En realidad, el problema esencial del país, era el desequilibrio que había entonces entre la oferta de ahorro y la demanda de inversión. Para resolver esta situación, se preparó un plan técnico con ayuda del FMI que de hecho supuso el comienzo del fin de la Autarquía, de manera que se liberalizase la economía española, reduciendo significativamente la intervención del Estado en la misma. En 1.959 se formuló un Plan de Estabilización obra de Mariano Navarro Rubio (Ministro de Hacienda) y de Alberto Ullastres Calvo (Ministro de Economía); en síntesis este Plan, preveía:
- La fijación de un cambio estable de la peseta con las otras divisas (el cambio en relación con el dólar se fijó en 60 pesetas, lo que en la práctica significó una devaluación de la peseta).
- La reducción del gasto público y la congelación del sueldo de los funcionarios.
- La moderación salarial para luchar contra la inflación.
- La reducción del intervencionismo del Estado en la economía.
- La liberalización de las importaciones y el fomento de las exportaciones.
- La estimulación de las inversiones extranjeras en España.
- Libertad de precios
- Concesión al Gobierno de un crédito por valor de 544 M$ (6% del PIB).
El Plan de Estabilización permitió, tras una breve recesión de dos años, un crecimiento espectacular de la economía española en los 15 años siguientes: entre 1.960 y 1.973 nuestra economía registró un nivel de crecimiento que sólo fue superado por Japón; no en vano los analistas e historiadores califican este Plan de Estabilización como el más coherente aplicado en nuestro país. Los efectos se dejaron notar a muy corto plazo:
- En 1.959 se produjo un superávit de la balanza de pagos de 81 M$. Las reservas de divisas del Banco de España se incrementaron.
- La inflación se redujo desde el 12,5% en 1.958 hasta el 2,5% en 1.960.
- Incremento de la inversión exterior en España y del turismo.
- Mejora de las condiciones de competencia en el país y la incorporación de nuevas tecnologías.
Pero al margen de los resultados económicos antes mencionados, el mayor activo del Plan de Estabilización de 1.959 fue de hecho una apuesta por aquel entonces impensable: La apertura económica, la renuncia a la inflación, el abandono del intervencionismo y en definitiva, la integración de España en la Comunidad Internacional, y el establecimiento de una política de desarrollo basada en la iniciativa privada. Y quizás también sin esperarlo, pero lo más importante de todo, es que puso a España en la senda de una suave transición política hacia la democracia.
¿Cuanta Electricidad requiere Google para funcionar?
A finales del año pasado el gigante del internet publicó que el consumo de energía de todas sus acciones durante el 2010 fue de 2.300 millones de kWh, cifra similar a la electricidad que utilizan aproximadamente 207.000 casas en Estados Unidos durante un año.
Un solo individuo en un mes que usa cualquiera de los servicios como Youtube, Google + o el motor de búsqueda, gasta en electricidad la misma cantidad que dejar un foco de 60 watios iluminado durante 3 horas.
Por motivos de su campaña llamado «verde” la compañía creó su sitio web «Google Green», un lugar ameno con ingreso libre para millones de usuarios, donde se afirma que esta eficiencia energética ha sido lograda con el beneficio de energías renovables refiriéndose a la solar y la eólica en las cuales ha invertido cerca de 915 millones de dólares.
LA MISION ESPACIAL (EUROPEA) GAIA
GAIA es el nombre de una de las misiones de la ESA incluida dentro del programa científico a largo plazo ESA Horizon 2000, cuyo lanzamiento está previsto durante este año 2.013, situándose en una órbita de Lissajous alrededor del sistema Sol-Tierra, en el punto L2 de LaGrange. Se espera que tenga una vida operativa de 5 años, con una posible ampliación de 2 años más. GAIA, como su antecesora Hipparcos, es esencialmente una misión de astronometría cuyo objetivo es obtener un catálogo final de unas 109 estrellas de hasta magnitud 20, es decir: las obtenidas por la misión Hipparcos incrementadas en un factor de 10.000. Las características más sobresalientes de GAIA son las siguientes:
- Obtención de medidas astrométricas de las estrellas (distancia, posición, movimientos anuales) con una precisión de 20 μas (microsegundos de arco) de hasta magnitud 15.
- Obtención de medidas astrométricas de las estrellas (distancia, posición, movimientos anuales) con una precisión de 200 μas (microsegundos de arco) desde magnitud 15 hasta magnitud 20.
- Obtención de medidas fotométricas (observación multicolor y multiépoca) de cada objeto medido.
- Obtención de medidas de velocidad radial de las estrellas observadas (hasta magnitud 17 como mínimo).
- Cada objeto observado se monitorizará en promedio unas 70 veces a lo largo de un periodo de 5 años, midiendo también las variaciones fotométricas.
- Detección de nuevos planetas extrasolares, nuevas enanas blancas y marrones, nuevas estrellas variables (y tipos de variabilidad) y sistemas múltiples, nuevos asteroides, estos últimos dentro de nuestro sistema solar.
- Aportar nuevas pruebas de la Ley de la Relatividad General enunciada por Albert Einstein.
Con estos datos, el objetivo final de la misión GAIA es trazar un mapa tridimensional de los objetos de nuestra galaxia (y de algún otro objeto mas allá de ella) extremadamente preciso; también hará un mapa de sus movimientos, que dará pistas sobre el origen y evolución de nuestra galaxia. Las medidas fotométricas servirán para conocer las propiedades físicas detalladas de cada estrella observada, caracterizando su luminosidad, temperatura, gravedad y variabilidad, así como la composición de las mismas. Este exhaustivo censo estelar proporcionará los datos astrofísicos básicos para abordar un amplio rango de problemas importantes relacionados con el origen, estructura, y evolución e historia de nuestra galaxia. Se podrán medir simultáneamente un gran número de cuásares y galaxias, así como de planetas extrasolares, y otros cuerpos del sistema solar.
Particularmente importante es la medición de las distancias de los cuerpos astrofísicos que llevará a cabo GAIA: esta determinación de la distancia con la mayor precisión posible, permite hacer física sobre los cuerpos celestes: sin conocer la distancia, dos cuerpos celestes pueden ser fotométricamente iguales; una vez conocida la distancia, es posible caracterizarlos individualmente. Las distancias pueden medirse desde tierra, pero a causa de la atmósfera principalmente, dichas medidas son poco precisas: es necesario realizar estas medidas desde el espacio para que su precisión sea adecuada. GAIA medirá con mayor precisión que Hipparcos.
En el desarrollo del software de GAIA han participado numerosas Universidades europeas y por supuesto españolas: yo mismo, durante la realización de un Máster Universitario en Inteligencia Artificial Avanzada que realicé de 2.009 a 2.012 en la UNED, tuve la oportunidad de participar en uno de los equipos de desarrolladores de software para esta misión, en particular en el equipo encargado de desarrollar el software que verificará la calidad de las observaciones que GAIA realice durante su vida operativa de los objetos (estrellas) variables de nuestra Galaxia (CU7 – ‘Quality Assessment’).
La sonda GAIA generará cerca de un millón de Gigabytes de información (1 Petabyte), que deberá ser analizada posteriormente por el Consorcio de Análisis y Procesamiento de Datos (DPAC). Además, cuando la misión haya finalizado, seguirán trabajando durante tres años para confeccionar los datos astrofísicos a partir de dicha información, y crear los catálogos que se publicarán alrededor de 2.020 y servirán como punto de referencia para los datos astrométricos de la Astrofísica en el presente siglo XXI, generando datos para un largo tiempo de estudio. Os dejo un enlace para los que tengais curiosodad y querais profundizar un poco más en detalle en esta misión:
http://gaiavideo.ub.edu/index.html
LA TEORIA DE JUEGOS
El principal objetivo de la Teoría de Juegos es estudiar el comportamiento racional en situaciones de interacción (juego) entre agentes (jugadores) en las que los resultados están condicionados a las acciones de los agentes; un juego es cualquier situación en la cual compiten dos o más jugadores: el Ajedrez y el Póker son ejemplos bien conocidos, pero también lo son el duopolio o el oligopolio en los negocios, o la guerra fría de la segunda mitad del siglo pasado.
El éxito de un jugador, o grado en el que alcanza sus objetivos en un juego depende del azar, de las reglas del juego y del conjunto de acciones que sigue cada jugador individual, es decir: de sus estrategias. Una estrategia es una decisión relativa a la acción que ha de emprender un jugador en cada estado posible del juego.
La Teoría de Juegos supone que todos los jugadores son racionales, inteligentes y están bien informados. En particular, se supone que cada jugador conoce todo el conjunto de estrategias existentes, no solo para él sino también para sus rivales, y que cada jugador conoce los resultados de todas las combinaciones posibles de las estrategias.
La Teoría de Juegos está esencialmente ligada a las matemáticas, ya que es principalmente un problema de matemáticas aplicadas, aunque los especialistas utilizan asiduamente otras aéreas de esta ciencia, en particular la estadística y la programación lineal.
La Teoría de juegos tiene aplicaciones en numerosas aéreas, como las ciencias políticas, la economía, los negocios o la estrategia militar, que fue el origen de la Teoría de Juegos. La biología y la psicología, también se han beneficiado de la Teoría de Juegos para explicar algunos de los hechos a los que se enfrentaban, y que no tenían explicación anteriormente.
Pero sin duda, La principal aplicación de la Teoría de Juegos la encontramos en las ciencias económicas porque intenta encontrar estrategias racionales en situaciones donde el resultado depende no solamente de la estrategia de un participante y de las condiciones del mercado, sino también de las estrategias elegidas por otros jugadores, con objetivos distintos o coincidentes.
Esta ciencia ha evolucionado notablemente, ya que a partir de los instrumentos iniciales proporcionados por Von Neumann (1.903-1.957) y Morgenstern (1.902-1.976) en 1.944, comenzó a avanzar estudiando el conocimiento de la competencia imperfecta, pues hasta entonces solo tenían explicación juegos simples, como el monopolio o la competencia perfecta, ya que el monopolio puede ser tratado como un juego con un único jugador, y la competencia perfecta puede ser entendida teniendo en cuenta un número infinito de jugadores, de manera que cada agente individual no puede tener un efecto sobre agregados de mercado si actúa individualmente. En los años 50 hubo un desarrollo importante de la Teoría de Juegos que arrancó de Princeton, con Luce and Raiffa (1957), Kuhn (1953) que permitió establecer una forma de atacar los juegos cooperativos, y por fin Nash (1950), Nobel de Economía en 1.994 y que definió el equilibrio de Nash, permitió extender la teoría de juegos no cooperativos a otros más generales que los de suma cero (aquellos en los que lo que gana un jugador lo pierden los demás); durante esa época, el Departamento de Defensa de los EE.UU fue el que financió las investigaciones en este área, debido a que la mayor parte de las aplicaciones de los juegos de suma cero eran de directa aplicación en Defensa.
El dilema del prisionero, tal y como fue publicado por el matemático Albert W. Tucker en 1.950, roporciona un ejemplo de la aplicación de la teoría de juegos a la vida real. La Teoría de Juegos ha alcanzado un alto grado de sofisticación matemática y ha mostrado una gran versatilidad en la resolución de problemas: muchos campos de la Economía, se han visto beneficiados por las aportaciones de la Teoría de Juegos. En el medio siglo transcurrido desde su primera formulación el número de científicos dedicados a su desarrollo no ha cesado de crecer: economistas, matemáticos, sociólogos, biólogos, psicólogos y hasta juristas (asignación de responsabilidades, adopción de decisiones de pleitear o conciliación…).
ESTADISTICA CON ‘R’
A pesar de haber estudiado a lo largo de nuestra carrera académica en muchas ocasiones estadística, pocas veces reparamos en la importancia que esta tiene en nuestra trayectoria profesional; generalmente pensamos que el cálculo o el álgebra serán las disciplinas que tendremos que usar; sin embargo, la mayoría de las veces es la estadística la disciplina que de verdad tenemos que aplicar, o peor aún: la que hubieramos tenido que aplicar para resolver un problema que finalmente no se ha resuelto por el desconocimiento de la enorme potencia que la estadística tiene; en el mundo actual, lo único constante es la inconstancia, y por tanto la incertidumbre nos rodea de manera permanente, y me temo que también continua: aquí es donde la estadística puede jugar un papel crucial, pues es la disciplina que mejor puede gestionar la incertidumbre.
Pero para poder familiarizarnos con la estadística y apreciar su potencia, es necesario disponer de una herramienta que nos permita usarla con soltura, y aquí es donde ‘R’ nos puede ayudar. ‘R’ es un proyecto de software libre, resultado de la implementación GNU del lenguaje S. Fue desarrollado inicialmente por Robert Gentlemann y Ross Ihaka, del Departamento de Estadística de la Universidad de Auckland en 1993. Su desarrollo en la actualidad es responsabilidad del R Development Core Team. En un sentido amplio, ‘R’ es un lenguaje de programación con un conjunto de procedimientos implementados que permiten realizar tareas específicas muy diversas, que van desde la aplicación de funciones estadísticas a la generación de gráficos de altas prestaciones, pasando por la resolución de ecuaciones diferenciales y muchas otras.
‘R’ es un lenguaje orientado a objetos. Aunque existen algunas interfaces gráficas para ‘R’ como ‘Rcommander’, es muy recomendable utilizar ‘R’ como un lenguaje en vez de tratarlo como un programa estadístico convencional. Como entorno de trabajo, ‘R’ ofrece varias ventajas:
- Sus posibilidades gráficas son excelentes.
- Es muy flexible. Los procedimientos (estadísticos o no) estándar se pueden aplicar con solo utilizar el comando apropiado. Además, existen multitud de librerías (a las que se denominan paquetes) programadas por los usuarios de todo el mundo para llevar a cabo procedimientos específicos.
- Aunque ‘R’ comenzó siendo una herramienta estadística, en la actualidad se utiliza para infinidad de áreas no relacionadas con la estadística, como análisis matemático (cálculo y álgebra), física, química, simulación, etc.
- Es libre en el sentido en que podemos acceder al código escrito por otros usuarios y modificarlo libremente. A pesar de que ‘R’ viene sin garantía alguna, la mayor parte del código de ‘R’, o al menos el código más comúnmente utilizado por los usuarios, ha sido meticulosamente supervisado por estadísticos y académicos de mucho prestigio de todo el mundo (el llamado “R Coreteam«).
- Podemos además programar nuestros propios procedimientos y aplicaciones. En la misma página desde la que se puede bajar el programa http://www.r-project.org existe abundante documentación sobre cómo utilizarlo.
- Como ya se ha indicado, es gratuito.
Desde aquí os animo a probarlo, y adentraros en el increíble (aunque no siempre bien ponderado) mundo de la estadística.
EFICIENCIA ENERGÉTICA
Cada día que pasa oímos más y más hablar de la eficiencia energética. De la necesidad de ser eficientes y ahorrar en energía e incluso de la obligatoriedad de aplicar medias energéticas en nuestros hogares, comunidades de vecinos, empresas, etc..
Pero quizá lo que ya no todos sabemos es cómo podemos ahorrar y qué tenemos que hacer para ahorrar.
Los pasos a seguir son dos:
- Mejorar las infraestructuras o cambiar los equipos que consumen. Como ejemplo sirva la mejorar del aislamiento de un edificio, el sustituir el tipo de iluminación, et
- Gestionar los consumos para detectar ineficiencias.
Gestionar es conocer dónde y cuándo se producen los consumos. El análisis y gestión de esta información puede genera ahorros deentre el 10% y el 30% de las facturas.
INFEFICIENCIAS QUE SE PUEDEN TRATAR
- Dimensionamiento incorrecto de la potencia contratada o los periodos tarifarios basándose en el cálculo del maxímetro.
- Consumos latentes incorrectos
- Consumos fuera de horarios previstos (iluminación, calefacción, …)
- Desajuste de los “set point” de los sistemas de climatización
- Consumos indebidos por mal funcionamiento de equipos
- Incorrecto funcionamiento de las baterías de condensadores
- Balanceo desajustado de las fases
- Presencia de armónicos
- Etc.
Las empresas y hogares con menos visibilidad sobre sus consumos y por lo tanto más potencial de ahorro son:
- Las que utilizan muchos circuitos diferentes: iluminación, climatización, fuerza, refrigeración, maquinaria industrial…
- Las que tienen muchos emplazamientos: cadenas comerciales, bancos, hoteles… En este caso la visibilidad es mucho más difícil y a la vez el potencial de análisis gracias a la comparación es
enorme, igual que el potencial de ahorro.
Para gestionar el consumo lo primero que sedebe hacer es medirlo. Ésta medición tiene que cumplir dos requisitos:
- Debe ser continua: de nada sirve medir una vez y quedarse con la fotofija.
- Debe poder discriminar los diferentes consumos: por ejemplo en consumo eléctrico hay que identificar los circuitos que deben medirse además del general: Iluminación, Climatización, Fuerza, Maquinaria, etc.
QUE DEBEMOS MEDIR
No sólo consumos eléctricos de cabecera y de otros circuitos secundarios, sino en una perspectiva más amplia:
- Electricidad, cabecera y circuitos secundarios relevantes.
- Gas, dado que en muchos negocios el gas representa un consumo relevante.
- Térmico, el agua caliente por ejemplo en un SPA es una parte muy importante del consumo total.
- Vapor, en entornos industriales.
Es imprescindible tener en cuenta una serie de variables ambientales a la hora de analizar el consumo:
- Temperatura y humedad ambiente de los interiores
- Temperatura actual y previsiones del exterior.
- En algunos casos, la radiación solar es un parámetros relevante
Para facilitar el análisis se han desarrollando nuevos equipos que son capaces de realizar:
Análisis automáticos: mediante un software que permite:
- Tener por anticipado la factura que permitirá comparar con la factura de la comercializadora.
- El análisis de tendencias que le permitirá detectar la evolución y la comparación entre lo real y lo previsto.
- Las alertas por eventos. Se podrá difinir cuando quiere estar avisado de determinados eventos basados en los datos recibidos para enterarse en el momento de un posible problema.
- El benchmarking o comparativa basados en KPI’s entre localizaciones para detectar heterogeneidades.
- Informes de ratios.
- Etc.
Análisis manual: dentro de una empresa, el personal responsabilizado de la gestión energética o
del mantenimiento puede, con su experiencia, detectar ineficiencias relativas al desarrollo de su negocio que complementan los análisis automáticos que realiza el programa.
Basados en estos datos, las acciones que se pueden llevar a cabo para el ahorro pueden ser:
- Ajustar la potencia contratada y los periodos a utilizar en función del criterio de máximo ahorro en su factura.
- Avisar a su personal de mantenimiento de fallos detectados en parámetros de configuración (set point, horarios, etc.).
- Detectar maquinaria que opera con rendimiento energético inadecuado.
- Supervisar el trabajo de las contratas de mantenimiento. ¿Ha mejorado o empeorado el rendimiento de una máquina tras una intervención?.
- Planificar la demanda, controlando cargas para no superar la potencia contratada.
- Aleccionar y educar a su personal respecto a sus hábitos de consumo en base a datos objetivos de consumo comparando localizaciones.
- Planificar los sistemas de climatización en base a las estimaciones de previsión del tiempo.
- Obtener certificaciones de gestión energética como la ISO 50001.
Para todo ello os recomiendo que veáis los siguientes videos que explican un poco más todo ésto y
nos presentan unos nuevos equipos de medida innovadores que acaban de salir al mercado.
http://www.youtube.com/watch?v=2fDJmXtnYmA
http://www.youtube.com/watch?v=6R0_mC9Mk0Y
Grafeno.
El grafeno es una sustancia formada por carbono puro, con átomos dispuestos en un patrón regular hexagonal similar al grafito, pero en una hoja de un átomo de espesor. Es un nuevo material, con propiedades extraordinarias generadas en el campo de la física cuántica:
- extremadamente delgado y resistente: una hipotética hamaca de un metro cuadrado de grafeno perfecto podría soportar a un gato de 4 kilos. La hamaca pesaría 0,77 miligramos, menos del peso de un bigote del gato,
- como conductor de la electricidad es 100 veces más rápido que el silicio, y como conductor de calor, supera a cualquier otro material conocido,
- es casi completamente transparente y tan denso que ni siquiera el helio, el átomo de gas más pequeño, puede atravesarlo.
Entre sus otras propiedades destacan:
- es muy flexible y elástico,
- muy alta dureza: 200 veces mayor que el acero, casi igual a la del diamante,
- gran ligereza, como la fibra de carbono, pero más flexible,
- menor efecto Joule: se calienta menos al conducir los electrones,
- para una misma tarea que el silicio, menor consumo de electricidad,
- generación de electricidad al ser alcanzado por la luz,
- ratio superficie/volumen muy alto, lo que le otorga un gran futuro en el mercado de los supercondensadores,
- soporte de radiación ionizante,
- se puede dopar introduciendo impurezas para cambiar su comportamiento primigenio de tal manera que se pueda hacer que no repela el agua o que incluso mejore aún más la conductividad.
El repentino aumento del interés científico por el grafeno puede dar la impresión de que se trata de un material nuevo. En realidad se conoce y se ha descrito desde hace más de medio siglo. El enlace químico y su estructura se describieron durante la década de 1930. Pero hasta 2004 no consiguió aislarse a temperatura ambiente. Los dos científicos que lo consiguieron, Andre Geim y Konstantin Novoselov recibieron en 2010 el Premio Nobel de Física por sus revolucionarios descubrimientos acerca del material bidimensional grafeno.
Bajo este prisma se entiende la revolución que significó que Novoselov y Geim consiguiesen aislar el grafeno a temperatura ambiente. Además, muchas nanoestructuras recientemente descubiertas, como los nanotubos de carbono, están relacionadas con el grafeno.
Las publicaciones especializadas bullen con artículos que presentan a esta estructura de carbono como la panacea. Una pantalla de grafeno es conductora por sí misma, por lo que no necesita de un entramado de circuitos por debajo. Al ser flexible, no solo puede enrollarse, sino que también puede recubrir superficies que no sean planas (¿pantallas esféricas, cónicas, cilíndricas?). Es barato porque forma parte del grafito que se encuentra en un lapicero cualquiera. La Universidad de Columbia asegura que es el material más resistente del mundo. Y además, no contamina.
Científicos surcoreanos han construido la primera pantalla táctil de este material. Tiene 30 pulgadas y puede doblarse y enrollarse hasta ocupar un espacio mínimo. IBM, el gigante de la informática, presentó sus primeros chips de grafeno, 10 veces más veloces que los de silicio. Los fabricantes de baterías para móviles anuncian que mejorarán su producto gracias a este derivado del grafito, con el que también está hecha la radio más pequeña del mundo, diseñada por el Instituto Tecnológico de Massachusetts (MIT).
¿Qué ocurrirá entonces con los netbooks, esos pequeños ordenadores que coparon el mercado hace un par de años y que parecían el último grito? ¿Y qué será del iPad de Apple? Para Chema Lapuente, divulgador tecnológico y director del programa de radio SER Digital, no se trata de la posible desaparición de los portátiles o del iPad. Es algo que va mucho más allá: «Tengo clarísimo que las pantallas enrollables en color, las que realmente vas a poder llevar a cualquier lado, son el futuro. No es solo que vayan a acabar con los portátiles más pequeños. Es que acabarán con el libro, con el periódico y con todo lo que te puedas imaginar. La clave es que tu pantalla sea flexible. Todo lo demás es un apaño temporal». Lo mismo predice el profesor James Tour, de la Universidad de Rice (Houston), y uno de los químicos más prestigiosos de la última década: «Como mucho en 10 años, y puede que incluso antes de cinco, este tipo de monitores inundará el mercado. Es cuestión de tiempo, solo depende de cuánto dinero se invierta». Y de lo que tarde el precio en ser competitivo.
[youtube]http://www.youtube.com/watch?v=-YbS-YyvCl4[/youtube]
Sin embargo, no toda la comunidad científica comparte este optimismo. El célebre físico holandés Walt De Heer afirma que «el grafeno nunca reemplazará al silicio». «Nadie que conozca el mundillo puede decir esto seriamente. Simplemente, hará algunas cosas que el silicio no puede hacer. Es como con los barcos y los aviones. Los aviones nunca reemplazaron a los barcos». Especialmente significativa resulta la opinión de Andre Geim, codescubridor del grafeno. En ocasiones ha hecho declaraciones más bien escépticas sobre la inminencia de esta revolución. Preguntado por su parecer actual, aprovecha para matizar: «A menudo la imaginación corre más deprisa que la razón, es parte de la naturaleza humana. Pero en el caso del grafeno sí que hay fuego detrás del humo. Normalmente un material nuevo tarda entre 15 y 30 años en pasar del ámbito académico al industrial. Y después otros 10 para ser producido en serie. Han pasado apenas cinco años y el grafeno ya está en el ámbito industrial». Esas son las buenas noticias, pero Geim tiene también palabras de desaliento: «Todavía no está nada claro que la tecnología del grafeno vaya a ser mejor de la que ya existe. Cuenta aún con muchos problemas, demasiados como para ser enumerados. Tendrá muchas aplicaciones, pero las más obvias, como los chips o las pantallas, pueden acabar siendo un fiasco, mientras que otras que hoy no son importantes pueden ser verdaderas minas de oro. El problema es que no sé cuáles triunfarán. Solo puedo predecir con exactitud el pasado».
Pocos dudan de que en breve llegarán las asombrosas pantallas que renovarán el mercado de todo tipo de ordenadores y teléfonos móviles. Antonio Castro Neto, físico de la Universidad de Boston y otro de los pioneros del grafeno, pronostica que podrán comprarse de aquí a dos años. Pero para la verdadera revolución, para un mundo de chips y circuitos que no sean de silicio, habrá que esperar mucho más: «Al menos una década», sentencia Castro Neto.
El principal obstáculo es la fabricación en cadena pero, de conseguirse, la producción de grafeno promete ser barata y de bajo impacto ecológico. Al ser mejor conductor que el silicio, pierde menos energía, con lo que los circuitos duran más y consumen menos. Es carbono puro y se encuentra en abundancia en cualquier parte, en cualquier país del mundo (se genera como desecho al escribir con un lápiz, por ejemplo). Su uso generalizado en la industria permitiría suprimir otros materiales más caros y contaminantes, como el óxido de titanio o el óxido de estaño indio con el que se fabrican ahora la mayoría de las aplicaciones electrónicas transparentes. Pero, como recuerda el profesor Castro Neto, la transición puede no ser ni fácil ni rápida: «El silicio es un gran negocio en el que se ha invertido muchísimo dinero».
En lugar de pensar en una transición veloz, como las que llevaron del cobre al germanio y del germanio al silicio, quizás sea más realista pensar en una larga convivencia de lo viejo (el silicio) con lo nuevo (el grafeno). Así lo espera Rod Ruoff, químico especializado en ingeniería mecánica de la Universidad de Texas. «Es más inteligente pensar en este nuevo material como un suplemento para fabricar híbridos. No he conocido a un solo trabajador en la industria, ni tan siquiera los más soñadores, que crea en una sustitución completa del silicio. Quizás deberíamos escucharlos más a ellos y menos a los académicos», opina Ruoff.
Tras los prodigios que hemos presenciado en los últimos años (hace dos décadas ni siquiera existía Internet), es lógico ilusionarse con el futuro. Lo que todas las empresas buscan es el dispositivo omnisciente que acapare televisión, teléfono, ordenador, Internet… El aparato que todo el mundo necesite comprar para poder vivir en esta sociedad hiperinformatizada. Que para conseguirlo haya que recurrir al grafeno es solo una posibilidad.
A medio camino entre los escépticos y los idealistas, se encuentra el investigador Francisco Guinea, el mayor experto español sobre el tema. Promotor de un nuevo método experimental basado en el estudio del grafeno, Guinea cree que el nuevo material «aumentará las prestaciones de los sistemas informáticos más complejos, como los que tienen las grandes empresas. Pero los circuitos de un ordenador seguirán siendo de silicio en un futuro próximo».
Como muestra del interés que el grafeno despierta en nuestro entorno, merece destacar que la Comisión Europea proclamó el pasado 28 de enero los ganadores de un concurso europeo de Tecnologías Futuras Emergentes (FET), dotado de varios miles de millones de euros. Las iniciativas ganadoras, «Grafeno» y «Cerebro Humano», recibirán cada una mil millones de euros para realizar durante diez años investigaciones de primer rango mundial en ámbitos donde se cruzan la ciencia y la tecnología. En cada iniciativa participan al menos 15 Estados miembros de la UE y casi 200 institutos de investigación. Además, nuestro país cuenta en el País Vasco con una de las empresas punteras en la fabricación de grafeno a nivel mundial, “Graphenea”. También existe un proyecto de implantación de una de las plantas con mayor producción de grafeno del mundo en el municipio murciano de Yecla.
¿Estamos ante una nueva revolución que traerá ordenadores aún más rápidos y pantallas aún más pequeñas? ¿O hablar del Valle del Grafeno es tan solo fantasía? Habrá que esperar, y el californiano Valle de Santa Clara, patrona de los navegantes, seguirá siendo conocido como Silicon Valley durante, al menos, unos cuantos años más.
Tecnología NFC
QUÉ ES NFC?
NFC son las siglas de Near Field Communication o comunicación en campo cercano.
La tecnología NFC comenzó a desarrollarse en el año 2002 en una acción conjunta de Philips y Sony,
con el fin de conseguir un protocolo compatible con las tecnologías sin
contactos propietarias existentes en el mercado: Mifare de Philips y FeliCa de
Sony. . Finalmente, NFC fue aprobado como el estándar ISO 18092 en diciembre de
2003 y posteriormente, en marzo de 2004, Philips, Sony y Nokia formaron el NFC
Forum para avanzar en el desarrollo de las especificaciones NFC y velar por su
interoperabilidad.
Es una tecnología inalámbrica de corto alcance que permite una interconexión entre dispositivos electrónicos de una manera intuitiva, sencilla y simple. NFC opera en la frecuencia de 13.56
MHz, banda que no necesita de ninguna licencia administrativa para transmitir,
y que permite la operación a una distancia inferior a 10 centímetros con
velocidades de transmisión de 106 Kbits/s, 212 Kbist/s y 424 Kbits/s. La
comunicación se produce cuando dos dispositivos NFC están próximos entre sí,
por lo que la comunicación es inherentemente segura debido al corto alcance de
la transmisión, lo que dificulta cualquier captura de la señal por otro
dispositivo ajeno a la comunicación.Aunque permite el intercambio de
datos entre dispositivos, no está dirigida a la transmisión masiva de datos, ni
al estilo de tecnologías WLAN (Wi-Fi) o Bluetooth, sino a la comunicación entre
dispositivos con capacidad de proceso como teléfonos móviles, PDAs o PCs po lo
que es una tecnología complementaria a éstas y no sustitutiva.
MODOS DE FUNCIONAMIENTO
La comunicación entre
dispositivos NFC se realiza a través de un diálogo entre un dispositivo
denominado Iniciador y uno o varios dispositivos denominados Destino, debiendo
responder éstos antes de recibir otra petición.
Dos modos de funcionamiento,
activo en el que ambos equipos con chip NFC generan un campo
electromagnético e intercambian datos. Y pasivo en el que solo hay un
dispositivo activo y el otro aprovecha ese campo para intercambiar la
información.
SEGURIDAD DE LA TECNOLOGIA NFC
Dado que estamos ante una comunicación por radiofrecuencia,
la lectura de nuestra transmisión es una posibilidad que existe siempre. En el
caso de la tecnología NFC se cuenta con la ventaja de la poca distancia a la
que la misma opera, pero no se puede descartar la copia de los códigos de
nuestro chip para un uso fraudulento. Además, no solo la posibilidad de robar
nuestros datos está ahí sino que la modificación o inserción de errores en la
misma también existe. Así que la seguridad vendrá de la mano de las que adopten
las transacciones de esas comunicaciones, como puede ser la SSL.
POR QUÉ LA TECNOLOGÍA NFC INTERESA A TODO EL MUNDO
La tecnología NFC producirá un cambio tecnológico que cambiará nuestras
vidas. Uno de los factores clave para que estos cambios se introduzcan, es el
número de actores interesados en los mismos.
Los fabricantes: Todo cambio tecnológico, que implica una
renovación de terminales interesa a los fabricantes, aumentan sus ventas y
animan su actividad.
Los operadores telefónicos: Al igual que los fabricantes, se ven
beneficiados por la renovación de los terminales.
Los bancos: La utilización de tecnología NFC en pagos ahorrará
mucho dinero a los bancos, desde el gasto en tarjetas de crédito, hasta en
personal, ya que habrá mucho más dinero controlado automáticamente, sin pasar
por las manos de un cajero.
Los gobiernos: Además de por todas las utilidades que la
tecnología NFC pueda tener en el sector de los transportes y el control
logístico, los gobiernos son unos de los principales interesados en la
expansión de la tecnología NFC, ya que haría desaparecer grandes cantidades de
dinero negro, que pasaría de estar en las carteras de los defraudadores, a
carteras electrónicas, dentro de un circuito completamente controlado.
Los ciudadanos: Además de las comodidades que la tecnología NFC
supondrá para la realización de pagos, el hecho de que desaparezca dinero “B”
del circuito, también es una circunstancia que debería beneficiar al ciudadano
de a pie.
Empresas y comercios: Nuevas oportunidades de marketing y
fidelización para empresas y comercios de toda clase. Además se ha comprobado
que en los lugares en los que se ha experimentado con la tecnología NFC, las
ventas han aumentado.
USOS DE ESTA TECNOLOGÍA
La premisa básica a la que se
acoge el uso de la tecnología NFC es aquella situación en la que es necesario un
intercambio de datos de forma inalámbrica. Lo usos que más futuro tienen
son la identificación, la recogida e intercambio de información y sobre todo,
el pago.
-
Identificación: el acceso a lugares donde es
precisa una identificación podría hacerse simplemente acercando nuestro
teléfono móvil o tarjeta con chip NFC a un dispositivo de lectura. Los
abonos de autobús/metro son un ejemplo muy válido. -
Recogida/intercambio de datos: Google es el
principal protagonista de este uso, pues en combinación con las etiquetas
RFID, utilidades como marcar dónde estamos, recibir información de un
evento o establecimiento son inmediatas. -
Pago con el teléfono móvil: sin duda alguna
es la estrella de los usos del NFC. La comodidad de uso y que el gasto
pueda estar asociado a nuestra factura o una cuenta de banco son armas muy
poderosas y esta tecnología está camino de ser el método de pago del
futuro.
EJEMPLOS DE APLICACIONES REALES Y PRUEBAS REALIZADAS CON LA APLICACIÓN
http://www.nfcon.es/2012/10/04/nuevas-tarjetas-de-visita-con-tecnologia-nfc-incorporada/
http://www.youtube.com/watch?v=FGsTW__TejA
http://www.nfcon.es/2012/08/17/el-mayor-evento-de-marcha-del-mundo-puso-a-prueba-el-nfc/
http://www.baquia.com/posts/2011-04-01-telefonica-prueba-nfc-entre-sus-empleados
http://closemobile.es/blog/?p=30