La Cartoteca: ¡Un mapa monstruoso! (GIF sin sentido pero… NSFW)

Veamos, muy pocas veces he subido GIF animados, de esos tan de moda, aquí a La Cartoteca. Si acaso, alguno útil, tipo infografía, pero hoy no he podido resistir la tentación. No es útil, no aporta nada interesante pero… ¡no puedo dejar de verlo una y otra vez! He aquí el monstruo (parece la cabeza de un T-Rex) que aparece al fusionar la silueta de África y América del Sur. (Vía Cartophilia.)

MapaMonstruo

¡Un mapa monstruoso! (GIF sin sentido pero… NSFW) apareció originalmente en La Cartoteca, mayo 25, 2016.

GeoRezo.net - Géoblog: [INSPIRE by clouds] Ce qu'il faut savoir du rapport INSPIRE de la France

Le rapport français de 2013 décrivait le lancement de l'infrastructure d'information géographique en France. Ce rapport montre l'arrivée à maturité d'un certain nombre d'éléments et certains retards dommageables.

Parmi les éléments très satisfaisants, on se doit de citer :

- la dynamique extrêmement soutenue de la création de catalogues de données ouverts, spécialement dans les thèmes de l'annexe III ;

- la poussée remarquable des données disponibles en téléchargement ;

- la mise en place de l'interopérabilité des données de l'annexe III par des géostandards nationaux répondant à des besoins concrets, en conformité avec le règlement européen sur l'interopérabilité ;

- le fonctionnement du Conseil national de l'information géographique qui a trouvé sa place centrale comme le prouve la production des guides de recommandation et le géostandard « Plan de corps de rue simplifié » destiné à la prévention de l'endommagement des réseaux enterrés.

Les retards portent essentiellement sur la mise en place des services de consultation, pour lesquels un effort collectif doit être mené.

Par ailleurs, si la plupart des données environnementales étaient déjà téléchargeables, un plan d'action est lancé afin que leur diffusion soit d'ici fin 2016 en conformité avec des exigences renforcées en matière de description de leur qualité, d'une part, et via des services facilitant leur exploitation. Ce plan d'action comprend un volet de préparation de la mise en conformité avec le règlement relatif à l'interopérabilité pour les données de l'annexe I.

Au final, sans pouvoir les citer tous, les résultats les plus satisfaisants sont fournis par des témoignages d'acteurs qui prouvent les premiers retours sur investissements, comme celui de GéoVendée qui les évalue à 50 000€ par an ou de la région Hauts-de-France. Encore plus positifs sont les exemples de création de nouveaux services orientés vers la satisfaction de besoins au-delà de la sphère habituelle de l'information géographique : le Géoportail de l'urbanisme, l'API Carto et le témoignage d'une entreprise en Bretagne montrent que les autorités publiques françaises sont capables d'exploiter cette infrastructure très technique pour satisfaire des besoins de tous les jours des habitants du pays.

Le rapport est ici

Blog IDEE: Ecoaqua, un geoportal y un proyecto interesantes

http://www.geoportal.ulpgc.es/portada/index.html

Ecoaqua es un proyecto europeo enfocado en la acuacultura, que está dentro de ERA Chairs, una iniciativa dentro de las acciones de coordinación y apoyo a Horizon 2020 para promover y liberar a largo plazo todo el potencial de investigación e innovación que tiene la UE en una serie de áreas clave. 

Está liderado por la Universidad de Las Palmas de Gran Canaria, tiene detrás un notable equipo de expertos internacionales, cuenta con la colaboración de un selecto grupo de organizaciones del sector  y sus objetivos fundamentales son integrar grandes expertos internacionales en la materiay fomentar la investigación más puntera e innovadora sobre acuacultura sostenible bajo un planteamiento ecológico.

Como parte de sus actividades tienen abierto un geoportal muy interesante con metadatos, un directorio con la URL y una descripción de los servicios web que publican (WMS y WFS) de observaciones de peces, de invertebrados y del proyecto de ciencia ciudadana Poseidón, un área de descargas y un visualizador. 

Todos los recursos están basados en estándares OGC y en las Normas de Ejecución INSPIRE. Bienvenidos al club.

Algo se está moviendo en el medio acuático y resulta muy gratificante ver cómo INSPIRE se desarrolla y llega a nuevas áreas temáticas.

www.geoportal.ulpgc.es/portada/index.html

Publicado por el editor.

Landkartenblog: Europakarte - So nennt das Ausland "Deutschland" beim Namen

Deutschland heißt im europäischen Ausland gerne sehr unterschiedlich bzw. hat eine unterschiedliche Herkunft.

  • Die Germanen gab es vor 2.000 Jahren in unserer Region. So ist dieses Wort in großen Teilen von Europa für die Deutschland geworden. 
  • Die Alemannen waren ein Frankenvolk im Gebiet von Baden-Württemberg vor 1.500 Jahren. Deswegen nennen viele Europäer in Süddeutschland unser Land gerne Alemania oder ähnlich. 
  • Niemcy bedeutet u.a. die Stummen, weil man in Osteuropa die deutsche Sprache nicht verstand und Dolmetscher brauchte.
  • In Finnland und Estland nennt man uns Sachsen
  • In Lettland und Litauen bekommt Deutschland ein Name, der vermutlich von einem anderen Volk aus Gotland stammt.
Quelle: Wikipedia



Landkartenblog: Natur- und Nationalparks in Deutschland - Außgerechnet im schönen Oberbayern und in Ostfriesland gibt es keinen einzigen Naturpark


Landkartenblog: Deutschlands Flüsse, Bäche und Kanäle - Südlich von Berlin und München gibt es nur wenige Flüsse



Landkartenblog: Deutschlandkarte der Feiertage - Die Bayern haben 14 und die Berliner gerade mal 9 Feiertage

Deutschland hat von Bundesland zu Bundesland unterschiedlich viele Feiertage. Vor allen die religiös geprägten Bundesländer in Süddeutschland haben öfters einen Arbeitsfreien Tag als die Bundesländer mit wenigen gläubigen Menschen in Nord- und Ostdeutschland.


Geofumadas: Blockchain y Bitcoin aplicado a la Administración de Tierras

En un congreso de tecnologías de información fui abordado por el editor de una revista, que me consultaba sobre la aplicación de este tipo de tecnologías en el área de Registro de la Propiedad, Catastro y Administración de Propiedad en general.  La conversación fue más que interesante, aunque me sorprendió un tanto que me preguntara, considerando que un par de meses  en su revista habían hecho la publicación sobre un país del trópico americano que lo estaba implementando.  Asumí que solamente era un boletín de prensa, en el que se habían desaprovechado la oportunidad de solicitar más detalles desde la fuente original.

Lo cierto es que la capacidad viral que tienen los acrónimos #blockchain y #bitcoin es poco menos que sorprendente, no solamente porque tienen grandes promotores en diferentes estratos de las redes sociales, sino porque también es irreversible desligar la filosofía de estas tecnologías en el futuro cercano de las transacciones entre terceros.  Resumo en este artículo los principales aspectos que gratas compañías acaloraron aquella noche de Amaretos en un restaurante con música en vivo que navega a lo largo de un río.

Qué es Blockchain

blockchain administracion de tierrasBlockchain es una tecnología para almacenamiento de datos en una nube securitizada. Cadenas y nodos almacenan las operaciones asociadas al objeto inicialmente creado, casi imposible de violentar.

La aplicación de esta tecnología en materia de Administración de Tierras, permite la encriptación del proceso transaccional mediante bloques concatenados en una nube. En caso de un Registro de Propiedad y Notariado, la cadena no solo lo constituye el tracto sucesivo, sino todos los datos sensibles de la operación sobre el inmueble (avalúo, mejoras, ventas, hipotecas, mensuras, gravámenes, georreferencia, etc.) en una nube de almacenamiento encriptado.

Qué es Bitcoin

bitcoin hondurasBitcoin es una tecnología para el manejo de dinero electrónico entre terceros. La tecnología convierte valores de dinero del mercado formal, en dinero criptográfico que puede ser utilizado para compras entre terceros con tasas inferiores al mercado formal. Las Unidades Coin son un tipo de cambio electrónico que utiliza las cadenas de BlockChain para la garantía de veracidad.

La aplicación de esta tecnología en Administración de Tierras, implica la conversión de un título de propiedad a unidades Coin, a fin de convertirlo en un título valor.  Bajo estas condiciones, una vez inscrito el título, se encripta mediante BlockChain y una vez convertido en un título valor mediante Bitcoin, puede ser transferido entre terceros sin necesidad de tantos intermediarios.

¿Fumada espacial o realidad?

En este tema hay muchas confusiones, porque se han vendido más los extremos que los procesos graduales a los que podría llegarse en una brecha de tiempo que no solo depende de aspectos tecnológicos sino más bien de políticas y normas legales.  Así que, luego del segundo Amareto, el primer paso fue abrir la mente e imaginarse qué sucedería si pensamos en el hoy de aquí a 25 años, mientras las chicas que nos acompañaban apenas llegaban a la mitad de su primera margarita y nos volvían a ver con cara de interés para no demostrar su total desconocimiento de clichés que acostumbramos los geofumados obsesivos.

El tema más fácil de aplicar es Blockchain como tecnología, considerando la capacidad que le da a un sistema transaccional para incrementar la seguridad de la información.  Es lo que todos quieren, que en lugar de tener una base de datos tabulares que pueden ser violentados, estos estén dentro de una nube donde es imposible construir una cadena a partir de eslabones contenidos en una secuencia fragmentada que no se puede romper y casi ni entender.  Esto podría aplicarse tanto al Registro de Propiedad, donde está incluida en la cadena las condiciones actuales del Inmueble:  las partes interesadas en la transacción (propietario, notario, topógrafo, banco, etc.), la relación con el bien (derecho, restricciones, responsabilidades), el objeto de derecho que puede ser material o inmaterial (como una propiedad intelectual o una propiedad mercantil en acciones), su referencia geométrica y sobre todo el centro del modelo LADM, el source… todo, en una secuencia de bloques no continuos en un cordón parecido a la cadena de ADN.

Eso no es fumar, esa tecnología ya existe y está documentada aplicándose en otros campos.

Por supuesto, Blockchain es solo una tecnología, no son herramientas listas para utilizarse; siempre se debe desarrollar un sistema o aplicar a uno existente, con la simple condición en las especificaciones técnicas del contrato que indiquen que la empresa debe aplicar tecnologías Blockchain y por supuesto, la capacidad del recurso humano que realizará QA y se apropiará –por lo menos para entender la mitad de cómo se hizo-.

El problema es, que parte de la venta de esta tecnología es creer que una vez aplicado Blockchain deja de ser necesario un profesional para realizar una transacción.  Pero apliquemos la mente abierta, y pensemos en esto:

¿Qué sucede si andamos con un billete en la moneda local de mi país, equivalente a 10 dólares?

-Es mío, puedo subirme a un taxi y pagar con el billete, puedo ir a una tienda y comprar una tarjeta de minutos para mi teléfono móvil.  Dependiendo en qué ciudad estoy podría comprarme una tarjeta de saldo PayPal o mandar dinero por el móvil sin que para ello sea necesario verificar su autenticidad.

Si fuera de 100 dólares podría comprarme un teléfono móvil y por mucho en la tienda verificarían que es válido, con una máquina hecha para validar la autenticidad.

Hace 5,000 años esto no era posible de pensar, puesto que el intercambio era de bienes, por lo que al cambiar un caballo por una parcela era necesario tener una profesional que supiera de caballos para asegurar no solo que estaba saludable, un profesional para ver la parcela y garantizar que conocía que sus abuelos fueron los dueños, y quizá otro profesional para que escribiera en un libro esa operación.

Comprar y vender hoy se puede realizar con mucha facilidad, porque el dinero físico o electrónico es un medio de transacción entre terceros cuya autenticidad se puede verificar y es una práctica aceptada.

Aquí es entonces cuando entra el Bitcoin, puesto que un inmueble se convierte en unidades de valor, así como lo es un título valor.  Yo hoy puedo en un bar venderle un título de acciones a mi amigo, por 2,000 dólares.  Si él quiere validar la autenticidad puede hacerlo, o bien puede aceptarlo de buena fe si me conoce y sabe donde encontrarme si el documento tiene un problema.  Así entonces, un título de propiedad, una vez inscrito en un sistema tan encriptado, securitizado y de uso común, ser transferido entre terceros no ocuparía un intermediario, si el dueño sabe que una vez en sus manos es suyo y lo puede transferir a otro más o ir al banco emisor a depositarlo a su nombre.   Por supuesto, suena a fumada, pero así podrían pensar quien le vendió la Cueva de Macpela a Abraham en los bordos de un meandro del Río Jordán.

bitcoin blockchainDe modo, que Blockchain por sí solo es nada más que una tecnología aplicable ya, con todas las ventajas que esperemos sacarle.  Conscientes que la operación entre terceros no puede ir más allá de lo que la legislación le permite; seguirá existiendo el intermediario para las transacciones, porque no cambia más que la garantía de seguridad que el sistema existente tiene.  El Blockchain incrementa la seguridad jurídica, pero no disminuye los tiempos transaccionales si las condiciones legales para cambiar un sistema notarial basado en escrituras lo obstaculiza; tampoco disminuye los costos transaccionales si la herramienta tecnológica tiene limitaciones para incorporar de manera ágil un Front Office al alcance del usuario o si la brecha de penetración del Internet en las áreas rurales todavía es muy amplia, mucho menos si el poder de los abogados sobre las innovaciones es chapado al protocolo en máquina de escribir y la descripción de rumbos / distancias bajo la pericia de un abogado.
Sin embargo, Blockchain es un gran paso.  Con seguridad será la tecnología que permitirá el sueño de uno de mis mentores, que espera que en el banco el comprador y vendedor pongan su dedo en el lector de huella y hagan la compraventa.  Tecnológicamente eso es factible, pero tener las normas legales, la confianza del usuarios en los datos y las condiciones para cambiar la mentalidad de la gente… ocupará un milagro del cielo o un gobierno con prácticas de tirano en al menos 25 años continuos.

Bitcoin es el  paso siguiente, para la securitización y aplicación de moneda criptográfica.  Esto será lo que permitirá reducir la cantidad de intermediarios.  Pero para eso, hay mucho por recorrer; especialmente porque es un tema más que tecnológico, es económico, requiere legislación local y tiempo, que es lo que permitirá que los usuarios lo entiendan y acepten.  Disminuir intermediarios es algo que se puede hacer sin Bitcoin, tal como no solo está haciendo ese país de Centroamérica delegando a la Banca la posibilidad de registrar una hipoteca, ampliarla o liberarla; acción que antes hacía un notario a la antigua, con papeles en un folder amarillento; por supuesto, con una delegación similar a la que se le otorga a un notario y limitación de responsabilidades entre la buena fe del cliente, la fe notarial y la fe pública registral.  De esto a transformar en valores una bien inmueble, mueble, mercantil o intelectual… falta mucho.

Pero sucederá.  En la medida que Factom y Epigraph logren proyectos visibles, de preferencia no de tercer mundo.

Para ser honesto, estoy siendo demasiado simplista pues el límite entre Blockchain y Bitcoin no es así de tácito; es posible hacer solo con Blockchain mucho más sin tener que recurrir a Bitcoin.

En el caso de este país centroamericano al que hacía referencia el artículo de la revista, lo que tiene ahora es un proyecto piloto, en el que está probando la tecnología Blockchain.  Con toda seguridad en 4 años será un hecho demostrado sobre la nueva versión del Sistema Unificado de Registros, que en sus especificaciones técnicas dicen en las características no funcionales que el sistema debe aplicar tecnologías de encriptado mediante cadenas y también securitización.   Bitcoin está en la mira de quienes pensamos que 25 años es poco tiempo.

A estas alturas de la charla, que solo he resumido, las chicas estaban que volteaban los ojos con su segunda margarita.  Terminaron levantándose a ver los fuegos artificiales que se reflejaban en las aguas del Támesis dejando entrever la silueta de sus entrepiernas… justo cuando empezamos a hablar como se puede aplicar el Blockchain para la gestión del catastro que definitivamente simplificaría los retos más complejos del levantamiento catastral masivo y el avalúo basado en las condiciones de mercado.

blockchain bitcoin catastro registro

 

La entrada Blockchain y Bitcoin aplicado a la Administración de Tierras aparece primero en Geofumadas.

Blog IDEE: Disponible la línea de costa del IHM


Ya están disponibles en el Centro de Descargas del CNIG los datos de la Línea de Costa, las Líneas de Base Rectas y la Zona Económico Exclusiva en el Mediterráneo Noroccidental.

Son propiedad del Instituto Hidrográfico de la Marina y conforme al Real Decreto 1545/2007, de 23 de noviembre, por el que se regula el Sistema Cartográfico Nacional, forman parte del Equipamiento Geográfico de Referencia Nacional. No requieren la aceptación explícita de licencia y su uso tendrá, en cualquier caso, carácter libre y gratuito, siempre que se mencione al Instituto Hidrográfico de la Marina como origen de la información representada (mediante la referencia, «© Instituto Hidrográfico de la Marina»). 

En los tres casos se trata de ficheros ZIP que contienen los datos en formato shapefile (SHP) en WGS84 y coordenadas latitud y longitud, acompañados de sus metadatos. La resolución es 1:25.000.

La línea de costa es una línea doble, compuesta por la línea de la pleamar y la línea de la bajamar, de forma que delimita, en sentido horizontal, la zona de transición entre la tierra y el mar allí donde las mareas son apreciables y que se confunden en una sola donde no lo son o, aun siéndolo, no exista zona de transición debido a la verticalidad del terreno o construcción artificial permanente. La línea de Pleamar es la línea horizontal que queda determinada por el máximo avance de la marea hacia tierra. La línea de bajamar viene determinada por el Cero Hidrográfico o bajamar escorada.

En la imagen se pueden ver las dos líneas en la Playa de la Concha, en San Sebastián, y como es natural no coinciden con la línea de costa restituida en el momento en el que se realizó el vuelo utilizado en la cartografía oficial del IGN.

Las líneas de base rectas son las líneas a partir de las cuales se miden las aguas jurisdiccionales españolas a efectos de pesca (12 millas náuticas) y la zona económica exclusiva (200 millas náuticas). Nacen con el objeto de delimitar la extensión de los distintos espacios marítimos de un Estado costero, ya que es fundamental determinar previamente desde donde se miden estas zonas. 

La zona económica exclusiva es una zona marítima que se extiende desde el límite exterior del mar territorial español hasta una distancia de doscientas millas náuticas, contadas a partir de las líneas de base desde las que se mide la anchura de aquél (líneas de base rectas donde estén definidas o, en su defecto, línea de bajamar escorada). El Estado español tiene sobre esta zona derechos soberanos a los efectos de la exploración y explotación de los recursos naturales del lecho y del subsuelo marinos y de las aguas suprayacentes.

Nuestra más calurosa y agradecida al Instituto Hidrográfico de la Marina y a todos los que han hecho posible que estos datos tan útiles estén disponibles.

http://www.armada.mde.es/ihm/
 
Publicado por Antonio F. Rodríguez.

TANTO: Big GIM mette su famiglia

Questo articolo è stato pubblicato contemporaneamente sul sito Big-GIM

Toy Story 3Lo scorso primo marzo si è svolto il Kick off Meeting del Gruppo di Lavoro UNINFO “Profili professionali relativi all’informazione geografica”. Ne aveva dato notizia AgID qui.

I due mesi trascorsi, da quella riunione ad oggi, sono stati impiegati dalle associazioni Stati Generali dell’Innovazione e AMFM GIS Italia, per formalizzare l’adesione all’iniziativa UNINFO. Entrambi i sodalizi hanno terminato l’iter, conclusosi positivamente con l’iscrizione all’ente per la normazione in materia di informatica e la segnalazione dei propri delegati al Gruppo di Lavoro.

Anche altri soggetti, già soci UNINFO e/o presenti a quella riunione, hanno aderito all’iniziativa nel frattempo. E’ quindi probabile che nell’arco di questo mese UNINFO proceda, convocando la prima riunione operativa.

Abbiamo deciso d’impiegare questo tempo per riprendere la cura di queste pagine. Come avevamo anticipato durante quella riunione, grati per il risultato ottenuto con il questionario sul GIM, che tanti spunti per questo argomento ci ha fornito, ne abbiamo preparato un secondo, che trovate qui. In sintesi, grazie ancora al contributo della Rete, vorremmo raccogliere indicazioni sulle figure professionali che il gdl dovrebbe prendere in considerazione, oltre al GIM, e in generale, suggerimenti in tema di professioni della Geographic Information.

Contiamo molto, visto il precedente, sull’esperienza della comunità geomatica in Rete. Vorremo anche cogliere quest’occasione per incoraggiare suggestioni rispetto alle prospettive di sviluppo dell’Informazione Geografica nei prossimi anni. Dai contributi raccolti potrebbero emergere idee e consigli veramente utili per immaginare il futuro di questo settore in Italia e agire per contribuire alla creazione delle condizioni favorevoli perché tale scenario si avveri. Il nostro Paese ha un patrimonio di competenze straordinario in questo settore: valenti tecnici che operano nella pubblica amministrazione, nelle aziende, come liberi professionisti e neogeografi; una rete di ricercatori, i cui meriti sono apprezzati anche oltre confine. Un capitale umano degno della Nostra tradizione. Le opere e i giorni sono propizi.

Con questa finalità, prima di compilare il questionario, vi proponiamo di dare un’occhiata al seguente documento: “UN-GGIM, Future Trends in geospatial information management: the five to ten year vision”, Second edition, December 2015.

In questi giorni, precisamente l’11 maggio, si svolgerà la conferenza nazionale promossa e organizzata dall’AgID: “Il ruolo dell’informazione geografica nel contesto dell’agenda digitale: sfide, opportunità e nuove policy”. Anche quanto potremo leggere dai resoconti (per chi non sarà presente) di questo evento potrà fornire utili spunti. Questo vale come invito a seguire l’iniziativa AgID.

Vorrei infine dare uno spunto personale, che mi ha suggerito la lettura del documento UN-GGIM, già dalle prime suggestioni colte tra le righe dell’Executive Summary.  Per non lasciare solo il Big GIM, da quali collaboratori –e con quali competenze- dovrà essere affiancato, avendo presente il compito assegnato, espresso in geo-note?

L'articolo Big GIM mette su famiglia è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

Blog IDEE: Cómo incluir WMS y WMTS en la API de Google


Si estáis acostumbrados a usar la API de Google y la cartografía de Google Maps, no tenéis porqué abandonar completamente las dos cosas para utilizar servicios WMS y WMTS. Es muy fácil añadir esos servicios para verlos utilizando esa API. Se ha publicado recientemente en el geoportal de la IDEE un documento de ayuda sobre cómo hacerlo:

http://www.ign.es/resources/viewer/APIGoogle_incluirwms_wmts.pdf

Así que ya sabéis: no es demasiado difícil tener un viualizador hecho con la API de Google y ver, eligiendo una pestaña u otra, ambas cartografías. 

Salud e interoperabilidad.

Publicado por Antonio F. Rodríguez.

La Cartoteca: Crea tu propio mapa en 8 bits

Algo ha alterado nuestro continuo espacio-tiempo, alguien ha cambiado la historia, Internet se extendió por doquier a principios de los ochenta y algo parecido a Google Maps llegó con esa explosión, repleto de texturas en 8 bits. Vale, nunca sucedió, pero imagina cómo hubieran sido los mapas online ochenteros, similares a los de tantos videojuegos de la época y, ahora, piensa en crear uno propio.

Con cualquier programa de diseño gráfico se puede hacer, pero es laborioso. Ahora, finalmente, imagina que sobre la trama de OpenStreetMap puedes automatizar la creación entrañables y “viejunos” mapas en 8 bits. Deja de imaginar, aquí tienes tu herramienta vintage del día, de la mano de Jay Bulgin: 8-Bit Map Maker.

Un aviso: el mosaico que se genera ocupa toda la pantalla, hay que navegar hacia la parte inferior de la imagen para ver el menú de opciones, con barra de zoom y opciones de exportación.

Más información y vía: 8-Bit Maps of the World.


El ejemplo de la imagen siguiente pertenece a Madrid, en concreto al área que rodea al Palacio Real.

8bits

Crea tu propio mapa en 8 bits apareció originalmente en La Cartoteca, abril 29, 2016.

Spatialists: Logo look-alikes

Few days ago, Spencer Chen posted this picture on Twitter:

and commented:

Nothing is original, esp. in . (btw, these are NOT the logos of Medium, AirBNB, Flipboard, and Beats)

That’s right. Spencer’s photograph contains the names of the institutions those logos belong(ed) to: a publishing company, a drive-in, an oil company and a city in Germany.

These, however, are the logos of Medium, Airbnb, Flipboad and Beats:
Medium-logo
Airbnb-logo

 

Flipboard-logo

 

 

Beats-logo

A nice reminder that no idea is guaranteed to be original!

If the nature of creativity interests you, consider checking out these:

La Cartoteca: Cervantes y el Madrid del siglo XVII en un mapa interactivo

Estos días Miguel de Cervantes está apareciendo por todas partes y no es para menos, pues nos encontramos en el IV Centenario de su muerte. Pero como entre mapas estamos, lo que aquí nos ocupa es una “aparición” muy especial de Cervantes. En este caso se trata de una iniciativa del IGN (Instituto Geográfico Nacional), gracias a la que se ha creado un visualizador interactivo online que, sobre un añejo plano de Madrid (el de Pedro Texeira de 1656), coloca puntos clave de la vida de Cervantes.

Vista general del visualizador, sobre el antiguo plano del siglo XVII se superponen puntos geoposicionados con información acerca de Cervantes, anécdotas, historias diversas y siluetas de edificios, muchos de los cuales ya no existe.

Vista general del visualizador, sobre el antiguo plano del siglo XVII se superponen puntos geoposicionados con información acerca de Cervantes, anécdotas, historias diversas y siluetas de edificios, muchos de los cuales ya no existe.

Se puede comparar ese plano con la estructura del Madrid actual gracias a un dial de transparencia.

En el visualizador se puede utilizar también como tapiz la trama urbana actual.

En el visualizador se puede utilizar también como tapiz la trama urbana actual.

El resultado es atractivo, pues no se trata sólo de “pinchar” puntos geolocalizados y contemplar cómo era la estructura urbana del Madrid del siglo XVII, sino que la cantidad de información en forma de textos, grabados, anécdotas de todo tipo y referencias bibliográficas, es tan grande que la aventura de explorar este plano garantiza pasar un buen rato.

Cada punto geolocalizado contiene gran cantidad de información adicional.

Cada punto geolocalizado contiene gran cantidad de información adicional.

Por supuesto, como herramienta didáctica creo que también tiene un gran interés. Acceso al visualizador: Cervantes y el Madrid del siglo XVII.

A través del recorrido virtual se recrea el aspecto y la vida del Madrid del siglo XVII.

A través del recorrido virtual se recrea el aspecto y la vida del Madrid del siglo XVII.

Agradezco al IGN el aviso acerca de esta iniciativa.

Cervantes y el Madrid del siglo XVII en un mapa interactivo apareció originalmente en La Cartoteca, abril 27, 2016.

Blog IDEE: Las JIIDE 2016 se celebran en Barcelona del 27 al 30 de septiembre


Organizadas conjuntamente por los responsables de las IDE de Andorra, Portugal y España, este año se celebran las JIIDE en Barcelona, en el Palau de Congresos de Catalunya (Avda. Diagonal, 661-671) del 27 al 30 de septiembre y coincidiendo con la Conferencia INSPIRE 2016. La inscripción será única, lo que supone una auténtica oportunidad para asistir a ambos eventos.
       
Durante cuatro días habrá presentaciones, conferencias, una cena de networking, intercambio de ideas, experiencias y buenas prácticas. El lema de las jornadas es «Las IDE: un ecosistema de recursos para un medioambiente sostenible» y los temas de las presentaciones:
  • Implementación y seguimiento del cumplimiento de la Directiva Inspire
  • Armonización de conjuntos de datos
  • Gestión de metadatos y catálogos
  • Implementación de servicios web
  • Aplicaciones web y móviles para las IDE
  • Tecnologías y herramientas para la implementación de Inspire
  • Políticas de datos. Datos abiertos. Copernicus
  • Aspectos legales y jurídicos
  • Ejemplos de proyectos IDE y buenas prácticas
Ya está abierto el plazo para el envío de resúmenes, tenéis hasta el 3 de junio.

Para más información, véase: http://www.jiide.org/

¡Nos vemos en Barcelona!


Publicado por Antonio F. Rodríguez.

GeoRezo.net - Géoblog: [Le blog SIG & URBA] Mise à jour des sites dédiés à la numérisation des documents d'urbanisme

Beaucoup de liens sont devenus obsolétes dans mes articles consacrés à la numérisation des documents d'urbanisme. Voilà donc une petite mise à jour :

Et bien sur le fil de discussion dédié  "[PLU_numerique] Nouvelles prescriptions nationales",  sur notre portail GéoRezo : http://georezo.net/forum/viewtopic.php?id=73022.

GeoRezo.net - Géoblog: [Litto3D] Documents techniques utiles

Liste de documents techniques utiles à la compréhension, l'interprétation et l'utilisation des données Litto3D® :


GeoRezo.net - Géoblog: [Le blog SIG & URBA] Appel à commentaire SUP

Un appel à Commentaires pour la version 2016 du standard concernant les Servitudes d’Utilité Publique vient d'être ouvert sur le site du CNIG. 

Les principales évolutions du standard sont liées à la mise en oeuvre du GPU


Le changement fondamental consiste à migrer de la vision «départementale» du standard précédent à une production par gestionnaire, par catégorie de SUP et pour un territoire déterminé (ou "maillage" dans la terminologie GPU).
En découle des modifications comme :

  • la dissociation des tables par catégorie de SUP (tables GESTIONNAIRES_SUP, ACTE_SUP, SERVITUDE et SERVITUDE_ACTE_SUP),

  • une méthodologie de constitution des identifiants pour éviter les doublons entre territoires ou gestionnaires différents.

  • l’identifiant du gestionnaire de SUP est son code SIREN, ce qui lui assure une meilleure pérennité,

  • et une adaptation de l'arborescence de stockage aux spécifications d'intégration du GPU.


 

Des modifications de forme sont également effectuées :



  • intégration des annexes "liste assiettes & générateurs" et "attributs supplémentaires par catégorie",

  • la partie implémentation n'est plus en annexe mais devient la Partie 5,

  • séparation de l'annexe "Symbolisation" et ajout des symbolisations GPU,

  • déplacement de la nomenclature SUP sur géoinformation,

  • et enfin, prise en compte de la recodification du code de l'urbanisme.


Notons également la suppression de la structure simplifiée qui avait été mise en annexe du standard à destination notamment des collectivités qui seraient amenées à numériser. Le principe étant bien que c'est à l'Etat et aux gestionnaires de numériser les SUP.

 

Et pour être parfaitement dans les clous du point de vue de la méthode, le bureau métier « législation de l’urbanisme » préconise :



  • la présence obligatoire de l’acte instituant la SUP numérisée

  • et la numérisation de la servitude à la résolution et à la précision de parcelle cadastrale, cette précision pouvant être modulée par catégories de SUP dans les fiches méthodologiques dédiées.


 

N'attendez pas pour répondre à l'appel à commentaire


qui se termine le 20 Mai.



 Lien direct vers le document.

Article rédigé avec l'aide d'Arnauld.

Γεωπληροφοριακά Νέα: ΑΝΑΚΟΙΝΩΣΗ: 6ος Κύκλος σεμιναρίων GIS με πιστοποίηση το Μαϊο στη Θεσσαλονίκη

certifiedH Επιτροπή GIS του Συλλόγου Διπλωματούχων Αγρονόμων-Τοπογράφων Μηχανικών Βορείου Ελλάδος (ΣΔΑΤΜΒΕ), ανακοίνωσε το 5ο κύκλο σεμιναρίων GIS που περιλαμβάνει επαγγελματική πιστοποίηση χρήστη GIS κατόπιν εξετάσεων. (Πιστοποίηση CPBGIS της ACTA)

Τα σεμινάρια θα διεξαχθούν μεταξύ 16 Μαϊου και 1 Ιουνίου 2016, στη Θεσσαλονίκη (κάθε Δευτέρα-Τρίτη-Τετάρτη 17:00-21:00).

Μπορείτε να δείτε τη πλήρη ανακοίνωση εδώ καθώς και τη δήλωση συμμετοχής


Γεωπληροφοριακά Νέα: 14o Eθνικό Συνέδριο Χαρτογραφίας – 1η Ανακοίνωση

χεεεH Χαρτογραφική Επιστημονική Εταιρεία Ελλάδας (XEE) ανακοίνωσε τη διεξαγωγή του 14ου Εθνικού Συνεδρίου Χαρτογραφίας«Η Χαρτογραφία σε έναν κόσμο που αλλάζει».

Το συνέδριο θα διαξεχθεί στη Θεσσαλονίκη, στο Μουσείο Βυζαντινού Πολιτισμού-Αμφιθέατρο «Στέφανος Δραγούμης» μεταξύ 2-4 Νοεμβρίου 2016. Περισσότερες πληροφορίες στο παρακάτω σύνδεσμο:  http://xeee.web.auth.gr/HCS/HCS_Conf_el/14_xeee_2016_1st_circ.pdf


Γεωπληροφοριακά Νέα: 24η Πανελλήνια Συνάντηση Χρηστών ArcGIS- 19 & 20 Μαΐου 2016

24ArcGISConfAthens2016

H Marathon Data Systems ανακοίνωσε την 24η Πανελλήνια Συνάντηση Χρηστών ArcGIS. Η συνάντηση θα πραγματοποιηθεί στην Αθήνα μεταξύ 19 & 20 Μαϊου 2016 στο Crowne Plaza Hotel.

Περισσότερες πληροφορίες μπορείτε να βρείτε εδώ καθώς και να δηλώσετε συμμετοχή μέσω της φόρμας εγγραφής


Spatialists: Finds IV

→ Reconsider

Schumpeter, disruption, break things, unicorns eating the world. This article by David Heinemeier Hansson, creator of Ruby on Rails and founder of Basecamp, on starting up is the opposite:

“Part of the problem seems to be that nobody these days is content to merely put their dent in the universe. No, they have to fucking own the universe. It’s not enough to be in the market, they have to dominate it. It’s not enough to serve customers, they have to capture them.”

 

→ How we type: Movement strategies and performance in everyday typing

Researchers at the Aalto University in Finland have looked at keyboard typing strategies. Personally, I find the strategies and the differences in finger use they engender but also how the researchers chose to visualise these using ‘maps’ and hand diagrams fascinating:

 

→ The rarefied art of fencing explained with NFL-style graphics

To use a very strong word: mind-blowing. I actually watched the video slowed down to 25% (use the ‘Gear’ icon) but muted (the music is a bit annoying and detracts). Some more background here. If nothing else, check this out, full-screen:

Click here to view the embedded video.

 


(Under the Finds title I collect links that I have found interesting, relevant or inspiring for some reason, but that either don’t squarely fit into the core themes of this blog or that don’t warrant a whole blog post.)

 

Spatialists: Journalism and data literacy

This post by Carla Pedrete is titled Common mistakes journalists make when using statistics, but I’d wager most statements wouldn’t be less true if extended to the general population (emphases mine):

Political parties and corporations use statistics to defend or justify particular interests. Hence, it is indispensable that journalists analyse numbers as deeply as they analyse words. David Sibert adds that it is socially unacceptable to admit that one is poor at reading or spelling, but people will proudly boast: “I’m no good at maths”. Journalists could actually use their position to help stop numerical illiteracy. (…) For Maria Ottati, the main problem is media talk about risks without taking into account the amount of people affected. For instance, the headline “Eating food X doubles the risk of developing cancer type Y” could be correct, but the article must explain that “cancer type Y is extremely rare and the risk of developing it is 1 in 100 million, so that a 50% increase is pretty meaningless”. (…) Paul Kingswell notes how journalists analyse a trend through the highest/lowest rates nationally, but without contextualising the data.

Other topics: percents versus percentage points, the use of absurd formula to impress, not rounding numbers. Indeed, as a supposedly empowered and informed society we have a long way to go to spread and deepen data literacy, a key skill for this century.

You know, reproducible data-driven journalism workflows, newspapers with GitHub accounts, R and Python repos, Jupyter notebooks. They’re all good. But I have the gnawing feeling we miss the mark of what is needed by the majority of people so tremendously.

Spatialists: Flag geekery

Similar flags, http://flagstories.co

Alas, New Zealand’s proposition for a new flag design has been voted against a few weeks ago:

But flags are always an interesting topic of discussion, from a design, cultural, historic, or simply aesthetic point of view. Via my friend Frank Ostermann I’ve learnt about Flag Stories, a website dedicated to the design elements (patterns, colours, symbols, …) of flags.

Similar flags, http://flagstories.co

Similar flags, http://flagstories.co

The company behind Flag Stories, ferdio, specialises in infographics. But fear not, I find Flag Stories really nicely made, not clickbaity, and surprisingly rich in content – who would have thought you could analyse flag designs at such an extent!

If, after Flag Stories, you aren’t tired of flags yet, I recommend you to follow up with the equally entertaining TED talk by Roman Mars on city flags, some abysmal, some fantastic. Cheers!

 

Dynamick: Come guardare in streaming i film di Piratebay

Tra i repository di Github più trending di questa settimana troviamo una simpatica utility in javascript per automatizzare lo streaming dei film disponibili su Piratebay.

Si chiama Pirateflix ed è una utility da riga di comando scritta in nodejs in grado di accedere al database dei film di Piratebay. Si lancia da shell e tramite una semplice interfaccia testuale è possibile ricercare i film desiderati e lanciarne lo streaming in tempo reale. Il player utilizzato è VLC (VideoLan Player) che viene lanciato in automatico e si connette ad un URL che Pirateflix attiva sulla macchina locale sulla porta 8888.

Sebbene quello che vi sto raccontando sia al limite del legale, il codice è davvero interessante da studiare per le sue molteplici funzioni. Inoltre a breve uscirà anche VLC 3.0 (attualmente è in versione beta) che promette di interfacciarsi alla propria chromecast per vedere lo stream direttamente sul televisore.

Come si installa Pirateflix

Per prima cosa cloniamo il progetto ed entriamo nella cartella appena creata con:

git clone https://github.com/orinocoz/pirateflix.git
cd pirateflix

Essendo un progetto nodejs, vanno ora installate tutte le dipendenze con:

npm install

A questo punto pirateflix è pronto per essere usato. Per lanciarlo, si esegue questo comando:

npm run start

Si dovrà inserire il titolo del film da cercare e selezionare poi la riga desiderata tra i risultati della ricerca. Aggiungete la dicitura ITA in fondo alla ricerca in modo da selezionare i film in lingua italiana.

pirateflix - richiesta

Ora cominciano ad essere scaricati i file torrent e viene instaurato un sistema di streaming per guardare in tempo reale il filmato. Questo è il risultato:

streaming-film-pirateflix

Sicuramente da provare e il risultato è sorprendente. Se Netflix è troppo povero di contenuti, allora potete integrarlo con il vasto database di titoli presenti su Pirateflix.

La Cartoteca: Cómo pegar por capas en Illustrator

Apareció el tema esta mañana y, viendo que algo tan sencillo se olvida a menudo (me ha pasado), no vendrá mal recordarlo.

Me refiero a cómo pegar en un documento de Illustrator varios objetos distribuidos según sus capas originales. Partimos de un archivo vectorial con objetos en varias capas, como el que utilizo en el siguiente ejemplo, un archivo AI que sirve de muestra de mi proyecto Maptorian.

1

Seleccionamos varios objetos del archivo, pertenecientes a capas diversas.

2

Vale, copiamos los objetos y vamos a un nuevo archivo, o a otro ya existente, y pegamos esos objetos. El resultado parece correcto, los objetos se han pegado en el nuevo escenario pero hay un problema, todos esos objetos están formando parte de una misma capa. ¿Qué ha pasado con nuestra estructura de capas del archivo inicial? ¡Ha desaparecido! Aquí es donde entra en juego el siguiente “truco” (en realidad es una cosa tan sencilla que llamarlo truco es casi ofensivo), que está presente desde hace bastantes versiones en Illustrator (quienes fueran usuarios de FreeHand se van a reír un rato de esto).

El resultado final es el que se ve a continuación, con los objetos colocados en el nuevo escenario, distribuidos por capas con sus nombres originales. ¿Qué ha cambiado para que esto sea así?

3

La diferencia se encuentra en que, previamente, en el menú de opciones del panel de capas se ha activado la opción “Pegar según capas”. Y ya está. ¿Eso es todo? Sí, tan sencillo como eso. 😉

4

Cómo pegar por capas en Illustrator apareció originalmente en La Cartoteca, abril 4, 2016.

Geofumadas: Descarga zonas utm para Google Earth

Este fichero contiene las zonas UTM en formato kmz.  Una vez descargado debes descomprimirlo.

Descarga el archivo aquí

zonas utm google earth

Descarga el archivo aquí

Solo como una referencia… las coordenadas geográficas provienen de partir el globo terráqueo en segmentos tal como lo haríamos con una manzana, los cortes verticales los hacen los meridianos (llamados longitudes) y los cortes horizontales los hacen los paralelos (llamados latitudes).

Para enumerar las latitudes se parte del ecuador, hacia el norte o sur desde cero hasta 90 grados en los polos y a estas dos mitades se les llama hemisferios.

En el caso de las longitudes, estas inician a enumerarse desde el meridiano de Greenwich llamado meridiano cero hacia el este, se enumeran hasta llegar a 180 grados, donde este mismo meridiano divide la tierra (llamado antemeridiano), a esta mitad se le llama “Este”.  Luego a la otra mitad se le llama Oeste, generalmente representado por la W (west), igual los meridianos parten de Greenwich pero en sentido contrario desde cero hasta 180 grados.

utm geograficas 1

Así una coordenada en España puede ser Latitud 39 N y longitud 3 W, una coordenada en Perú sería Latitud 10 S y longitud 74 W.

Esta forma de determinar las coordenadas que no tiene que ver con una altitud sobre el nivel del mar, pues es un vector que parte desde el centro de la tierra hacia la superficie, esta es la proyección que usa Google Earth, y esta es la forma de coordenadas que usan los archivos kml, adicionalmente se le agrega un esferoide de referencia que es la forma de aproximar la superficie de la tierra para fines de mensura.  Google usa WGS84 como esferoide de referencia (aunque hay herramientas que permiten ingresar coordenadas UTM a Google Earth).  La mayor ventaja de esta proyección es que la coordenada es única sobre la superficie de la tierra, aunque el manejo de operaciones para cálculo de distancias o rumbos no es práctica para “no geógrafos”.

Las coordenadas UTM

Las coordenadas UTM parten de la idea de considerar un esferoide de referencia a partir de la proyección cilíndrica Traverso de Mercator.  La tierra es dividida siempre por meridianos, en segmentos de seis grados formando un total de 60, a estos se les llama zonas.  La numeración de estas zonas es partiendo desde el antemeridiano, de cero hasta 60 de oeste a este.

Los segmentos que generan los paralelos van desde el 84 S hasta el 80 N, y  se enumeran con letras que van desde la C hasta la X (se excluyen la “I” y la “O”), cada segmento tiene 8 grados de latitud, excepto el X que tiene 12 grados.

La A, B, Y, Z son usadas de forma especial para los extremos polares; Google no incluye este segmento pues requiere un cálculo infinitesimal en una zona de interés solo para osos polares :).

utm geograficas 1

utm geograficas 1En total Son 60 zonas de 6 grados cada una, así

  • México queda entre las zonas 11 y 16
  • Honduras en la 16 y parte en la 17
  • Perú entre la 17 y la 19
  • España entre la 29 y la 31.

 

La aproximación de el esferoide de referencia al nivel del mar, hace que el arco que forman estas líneas tengan medidas bastante parecidas a la realidad de una medición local.  Este esferoide de referencia, anteriormente (popularizado en latinoamérica) era el NAD27, actualmente se usa mucho el NAD83, conocido por muchos como WGS84.  Al tener diferente referencia horizontal, las cuadrículas de ambos esferoides son diferentes.

zona 16 utmAsí que una zona tiene una coordenada x,y de partida, en el caso de Centroamérica, el límite entre las zonas 15 y 16 tiene una coordenada aproximada de 178,000 y llega hasta mas o menos 820,000.  Este rango de coordenada es igual para cada zona, a la misma latitud pero aclaramos, no es una cuadrícula ortogonal pero para fines de mensura local, es bastante parecido.  Los límites entre zonas se van cerrando, pero todo parte de un eje central, donde hay un meridiano totalmente vertical cuya longitud es 300,000 conocido como “este falso”, para fines que tanto a la izquierda como a la derecha de este meridiano no existan unidades negativas.
La latitud (coordenada Y), se parte de 0.00 en el ecuador y sube hasta el polo norte con coordenadas cerca de 9,300,000.

Los mapas que conocemos para fines catastrales, con escalas 1:10,000 ó 1:1,000 surgen de la partición de esta zona, en un post siguiente explicaremos como viene esta partición.

utm geograficas 1

Una coordenadas geográfica, como ser 16N 35W es única, sin embargo una coordenada UTM como ser X=664,235 Y=1,234,432 equivale a un punto que se repite en 60 zonas a esa misma latitud, tanto en el hemisferio norte como en el sur; requiere de una zona y hemisferio para definir a donde pertenece.

La entrada Descarga zonas utm para Google Earth aparece primero en Geofumadas.

Dynamick: Internet of Things: rendiamo la nostra casa intelligente

Da parecchio tempo si sente parlare di Internet Of Things, ovvero di tutti quei dispositivi reali che interagiscono attraverso la grande rete di internet. Il loro prezzo sta diventando accessibile e ben presto li troveremo nelle nostre case in numeri sempre maggiori.

Sto parlando di televisori connessi a internet, termostati intelligenti, smart cam per la videosorveglianza, robot connessi alla rete e chi più ne ha più ne metta.

Volevo segnalarvi in questo articolo alcuni dispositivi che sembrano davvero interessanti da acquistare per voi o per fornirvi alcune idee regali per la casa hi-tech.

Nest

nest-termostato

Nest è un termostato dal design superbo, dal display touch screen che nasconde un cuore hi-tech. E’ in grado di capire le abitudini di vita degli abitanti della casa in cui è installato e dopo un po’ di giorni di utilizzo riesce a impostare automaticamente le temperature ideali per il benessere degli inquilini. Inoltre è attento ai consumi e grazie ai sensori installati e alla comunicazione con i cellulari dei proprietari, stabilisce quando in casa non c’è nessuno per risparmiare sul gas.

E’ abbinato ad un’app con cui si imposta la temperatura del termostato quando si sta per tornare a casa, o per consultare la temperatura attuale.

Il suo costo è di 249€, caruccio per un termostato, che ne dite?

Smart Mirror

specchio-intelligente

Questo specchio intelligente non è un prodotto in vendita, ma è un progetto realmente realizzato da Max Braun ben descritto su Medium. Si tratta di un DIY (do it yourself), ma il risultato è troppo “cool” per non citarlo.

Usando uno specchio semiriflettente, un display di un vecchio monitor e una chromecast è riuscito a costruire uno specchio in grado di mostrare, oltre alla propria immagine riflessa, anche le previsione del tempo e i prossimi appuntamenti in agenda, direttamente dal proprio account di Google Calendar.

Se avete la passione del “fai da te”, questa è l’occasione giusta per creare un gadget che stupirà i vostri amici.

Canary

uses-home-security-setup

Canary è uno stiloso gadget, dal design raffinato, da appoggiare su un mobile di casa. Questo grazioso tubo nero si occuperà della sicurezza domestica a 360° grazie alla sua avanzata tecnologia. Principalmente si tratta di una web cam in grado di osservare cosa succede nella vostra abitazione. Dopo aver riconosciuto gli inquilini abituali, è capace di distinguere i potenziali malintenzionati, ha una funzione di motion detection, diventa un citofono remoto, misura le temperatura e avverte in caso di incendio e dispone di una potente sirena in grado di allertare il vicinato in caso di furto.

Canary purtroppo non è ancora in vendita in Italia e costa 179$.

Geofumadas: Modelo de Dominio de Administración de Tierras – Caso Colombia

La administración de la Tierra es, actualmente uno de los principales retos de los países.  No es una aspiración nueva, pues su función está más que explícita en los artículos principales de la constitución y las diferentes leyes que rigen la relación de los pobladores con los recursos públicos y privados de la nación.  Sin embargo, existe una tendencia internacional para la conformación de sistemas nacionales que consoliden una política nacional en la que se puedan aprovechar las ventajas que ahora ofrecen las tecnologías, los requerimientos de la globalización y por supuesto la demanda de los pobladores por la eficiencia de los servicios públicos.

De buena fuente he sido informado que actualmente Colombia está en proceso de adopción del ISO 19152, conocido como Land Administration Domain Model.  El LADM más allá de ser un estándar de aplicabilidad mundial, es resultado del consenso de muchos especialistas en materia de administración de propiedad, sacado a partir del estudio de cómo lo hacen diferentes países del mundo en consecuencia de aquella declaración de 1998 que rezaba el reemplazo de los esquemas tradicionales de catastro por el uso de modelos.  Esta es la principal razón por la que el LADM no puede ser desconocido por los profesionales vinculados a las ciencias de la tierra y en el caso de Colombia como es de esperar, no está siendo visto en sí mismo una solución, pero desde una óptica de semántica espacial, como un facilitador para la implementación de una política nacional para la administración no sólo de los derechos de la tierra sino en general de los diferentes bienes de la nación.

catastro multiproposito

Hago mención del caso Colombia, porque habrá que estar pendiente de su avance, como un interesante ejercicio que indudablemente será visible más allá del contexto latinoamericano.  En la primera fase que ha iniciado en el segundo semestre de 2015 se ha evidenciado no solamente el reto que implica alinear diferentes instituciones relacionadas con la gestión de los bienes materiales e inmateriales de la nación; también sale a relucir el evidente liderazgo y madurez que han adquirido instituciones como el Instituto Agustín Codazzi, la Superintendencia de Notariado y Registro y, la influencia de la cooperación internacional buscando internacionalizar las buenas prácticas.

Geofumar en el LADM me parece una decisión acertada, ante los retos que implica transversalizar la planificación y uniformar las acciones de instancias como el Programa de Formalización de la Propiedad Rural, Unidad de Restitución de Tierras, el Instituto Colombiano de Desarrollo Rural INCODER y los catastros descentralizados que en algunos casos me parece tienen mejores condiciones que la instancia nacional ante la necesidad de adaptarse a los cambios.

Tendencias internacionales en administración de tierras.

Debo insistir que la Administración de Tierra no es una ciencia desconocida para la mayoría de profesionales del sector Catastro-Registro-Ordenamiento Territorial; será novedoso el hecho de entender modelos UML sobre los que se presenta el estándar LADM y la forma de llegar a materializarlo un esquema institucional que ya existe y ante plataformas tecnológicas funcionando.  Así que, para complementar este artículo, rescato el valor de las tendencias irreversibles en materia de Administración de Tierras que se han presentado en uno de los talleres de la fase actual y de las que apenas puedo hacer comentarios que rayan en el filo de lo obvio pero que representan los principales retos del proceso colombiano.

ladmy

La descentralización de los procesos de actualización de la información, desde los niveles centrales hacia los gobiernos locales, bajo una óptica de responsabilidad no solo en materia de catastro fiscal sino también jurídico.

  • La incorporación de sistemas transaccionales mediante los cuales se controla la operación de las relaciones de tenencia entre las partes interesadas, incluido el gobierno en los objetos que representan derechos de interés público.  Un aspecto interesante de esta tendencia, es que la centralización no implica más burocratización, puesto que se complementa con la primera tendencia, en la que los operadores de las transacciones son los gobiernos locales, los entes privados y las personas por individual; pero operando sobre sistemas transaccionales de control nacional.
  • El uso de bases de datos con historial de datos administrativos y geométricos, modelados tanto en el almacenamiento de fuentes documentales como en el versionado espacial.  Esto implica no solo hacer investigación territorial o planes de ordenamiento, sino modelar su extracto en miras de tener una aplicabilidad sobre la propiedad inmueble y con referencia hacia su versión vigente.
  • El uso de modelos de datos estandarizados independientemente de plataformas tecnológicas, adoptando estándares que conceptualizan el modelo lógico del que proviene tanto el modelo físico como los procesos; sin importar si se utiliza software privativo o libre.
  • Arquitectura orientada a modelos, conocida en inglés como MDA (Model driven architecture).  Aspecto nada sencillo, por la urgencia de la interfaz humana para alimentar datos y el riesgo de morir en el tiempo sin victorias tempranas que justifiquen los costos de cambio de mentalidad.
  • Integración de derechos de tierra, uso de suelos y planificación territorial, simplificado en la relación Objeto-Sujeto-Derecho, pero ampliado a un esquema que permita ver la relación de derechos más allá de lo que la ley define de forma explícita y pudiendo ser aplicable a propiedad material e inmaterial.
  • Visión del Catastro desde  una óptica de ciclo de vida, con la obligatoriedad de pensar en el 3D, que si bien no es una urgencia de visualización ante la incapacidad por finalizar la cobertura 2D, debe ser incorporada aun a nivel administrativo por la urgencia urbana de la propiedad horizontal y la necesidad de estar listo para el 4D, no solo desde una óptica BIM sino porque la relación ene el tiempo solo ocupa automatización.
  • La orientación hacia la sencillez y facilidad de uso, lo que implica despenalizar la propuesta de Banco Mundial en finalizar el catastro del mundo en el corto plazo utilizando el puntoparcela como base urgente pero integrada al registro de la propiedad, relegando la precisión para cuando tengamos tiempo –y plata-.  Para entonces quizá nos demos cuenta que el mundo entero ha hecho el resto al estilo OpenCadastreMap.
  • La integración multidisciplinar de las personas vinculadas a la administración de tierras, cada quien haciendo lo suyo, en su sistema, pero replicando en un modelo de intercambio de datos bajo estándares de interoperabilidad.  Por supuesto, esto implica no ver la tecnología como un fin en sí mismo sino como una forma de alcanzar un objetivo identificado; implica ir agregando actores de forma gradual, evitando desechar los especialistas de experiencia por su incompatibilidad con la tecnología, pero también potenciando el recurso joven para estar listo para tomar el relevo en la ruta que seguro tomará varios años.
  • El reto de Colombia con el LADM

Sugiero como ejercicio mental de aplicación general, darle un seguimiento a lo que hará Colombia, que para ser honesto no lo tiene fácil, pero que con la voluntad política y persistencia por los altos objetivos de la nación seguro sabrán sacar provecho de las oportunidades que ahora se presentan –que ya quisieran tener otros países– entre las que se vislumbran:

  • ladmhLa incorporación del derecho público como un registro más que exprime la riqueza cartográfica y la convierte en derechos, restricciones y responsabilidades tanto de los entes públicos como de las partes privadas.
  • El desarrollo de proyectos pilotos de catastro multipropósito, bajo una visión de simplificación de una ficha catastral mediante la delegación de responsabilidades de la actualización de datos.
  • La conformación de un nodo de Administración de Tierras dentro de la Infraestructura Colombiana de Datos Espaciales ICDE, como modelo que va más allá de la disposición de geoportales de datos estandarizados.
  • La actualización de metodologías que simplifiquen la actuación de los gobiernos locales y la dependencia de políticas centrales, especialmente en lo referente al avalúo catastral, pero también la apertura a los métodos de levantamiento, simplificando lo “cool” de la complejidad y la precisión por la preeminencia de mantener datos actualizados.
  • La tenacidad por batallar con el polígono, ante el inevitable escenario del país en utilizar ESRI casi como una versión geomática de Dios y la tozudez de los fumados del ISO-19152 por mantener el arco-nodo como la única manera primitiva de explicar el universo.
  • La integración de Catastro y Registro en un sistema transaccional único, en el que es posible ver no solamente quien es una persona natural/jurídica/pública sino también los derechos consolidados en materia de propiedad inmueble, su geometría y gravámenes jurídicos y administrativos.  Este reto, más allá de la transformación institucional –que no es urgente-, implica un cambio de mentalidad en la visión global de los registros, como una responsabilidad del estado, más allá de la intervención urgente de proyectos con buena intención pero con la aspiración de converger en políticas públicas de interés nacional.
  • La visibilidad internacional del LADM platanizado a las particularidades de lo que por muchos años han hecho los colombianos.
  • ladmcol6

La lista de deseos es interminable y en el buen sentido de lo real, hasta utópico.  Pero esa misma sensación le sucedió a cualquiera hace 14 años cuando su mentor le facilitó dos documentos que habrán cambiado su forma de ver el mundo; sobre todo si estos documentos fueron el borrador de Propuesta Catastro 2014 de la FIG y el abstracto de Chrit Lemmen “Core Cadastral Domain Model“.

La entrada Modelo de Dominio de Administración de Tierras – Caso Colombia aparece primero en Geofumadas.

TANTO: Transitland, per mettere insieme e “dare vita” ai dati sui trasporti

Da novembre è attivo Transit.land, un progetto sponsorizzato da Mapzen che ha come obiettivo quello di creare un catalogo “integrato” di dati sulle reti di trasporto di tutto il mondo.

Nasce da una sperimentazione fatta a San Francisco, città con più di 30 agenzie di trasporto pubblico, un numero crescente di servizi privati, il carpooling, ecc.. L’obiettivo era proprio quello di mettere a rete tutti questi dati e catalogare le informazioni su autobus, treni, tram, traghetti anche le funivie e renderli interrogabili come se fossero in un unico database.

multi_modale

Tutto talmente bello, che dopo la sperimentazione “locale” è partito il progetto globale, con l’obiettivo di mettere a catalogo file GTFS da tutto il mondo.
La scelta del formato file di input è caduta proprio su General Transit Feed Specification, oggi lo standard di fatto per questo tipo di dati, usato da Google Maps, Microsoft Bing Maps, Apple Maps, ecc. Molti operatori di servizi di trasporto pubblicano i dati in questo formato, e molti innovatori civici hanno creato questi file per le loro città.

Ma si tratta di risorse che per lo più fluttuano nel web spesso come elementi separati. Transitlad, ancora invero in uno stato iniziale, mira a diventare un centro di gravità per questi dataset, completamente aperto in termini di licenza di software e di dati.

Contribuire

Uno dei modi per contribuire al progetto, lanciato da poco, è quello di inviare una nuova sorgente di dati GTFS, in modo che possa essere integrata al catalogo generale, che oggi comprende più di 70 risorse.
Farlo è molto semplice: a partire da questo wizard dove viene richiesto essenzialmente di inserire l’URL della sorgente dati, il tipo di licenza con cui sono pubblicati ed alcune informazioni anagrafiche del mittente.
Il dataset, a quel punto, viene sottoposto ad una verifica e dopo qualche giorno verrà inserito in catalogo.

Un po’ per testare l’oggetto, un po’ perché mi sembra un gran bella idea – non nuova, ma mai pienamente realizzata – mi sono messo all’opera e nel catalogo Trantit.land oggi sono in eleno le “nostre”:

Le API e la “vita” dei dati

I dati, come dice spesso chi fa didattica su questi temi, sono come la farina e l’acqua: materia prima con cui c’è chi farà torte e chi “busiate” (io non ho dubbi).

busiate

A Transit.land hanno impastato tutto e invece hanno tirato fuori delle API, rendendo l’interrogazione del loro catalogo un processo semplice, comodo e che potenzialmente potrà produrre diversi effetti a cascata.

Qualche esempio di query:

Ma sono solo alcuni esempi e le chiamate disponibili sono molte di più:
https://github.com/transitland/transitland-datastore#api-endpoints

I risultati sono esposti con una paginazione di 50 in 50.

Open Data Day

Sabato 5 marzo 2016 è l’Open Data Day, e una delle sedi sarà la città di Napoli.

Il bello è che sino a 15 giorni fa i dati sui trasporti di questo comune non erano disponibili ed oggi, solo per il fatto di essere stati pubblicati in formato aperto e documentato sono pure accessibili tramite API. Questo è stato possibile grazie anche a Ilaria Vitellio che si è spesa personalmente con la pubblica amministrazione locale, che ha risposto prontamente ed ha pubblicato questi dati.

In bocca al lupo allora a Ilaria ed a tutti i presenti a Napoli, che avranno a disposizione nuova farina e nuovi mattarelli.

In chiusura una nota personale. Anche i dati sulla mia città, Palermo, sono presenti nel catalogo e quindi accessibili via API, ma purtroppo valgono per fare qualche demo di qualità.
Si tratta di dati aggiornati a fine dicembre, in cui non è contemplata la nuova rete tranviaria e tutti i grossi cambiamenti che la rete ha subito tra fine 2015 e inizio 2016.
E’ un fatto grave, specie per una città ricca di turisti come Palermo e con grossi problemi di traffico autoveicolare, che non siano ancora disponibili dati aggiornati sui trasporti pubblici.

Ne riparlerò in un altro post.

L'articolo Transitland, per mettere insieme e “dare vita” ai dati sui trasporti è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

Geofumadas: BIM – El mundo que hubiera soñado hace 20 años

20 años después, solo puedo asociar el BIM como la evolución que representó para aquel tiempo dejar la mesa de dibujo y el papel calca por los ficheros CAD.  Aquella era una evolución impresionante, considerando que venía de ser dibujante de chinógrafo y calculista de libreta + calculadora + Lotus 123.  Me parecía impresionante creer que ya no era necesario meterle borrador eléctrico y calavera al papel calca ante un rediseño, mucho menos hacer modificaciones a múltiples planos por ese cambio, ni tirar a la basura las copias sepia del original, las que solo servían para manchar con el plumón rojo para los planos as-built o forrar la mesa del maestro de obras.banfaa

Debo admitir que siempre fui fanático de las tecnologías, había usado una 8086 con monitor de pantalla naranja en tiempos de DOS crudo.  De forma impresionante había migrado de hacer fichas de costos unitarios en Lotus 123 a SAICIC 3 para presupuestos y estimaciones, y había pasado de la arcaica matriz timeline de SAICIC a Microsoft Project 4 para controlar los tiempos, aunque para inventario seguía usando programación sobre FoxBase en DOS.  No porque no hubiera más, pero piraterar EaglePoint y SAICIC 4 en esos días era casi imposible.

Todo cambió, cuando tomé en mis manos AutoCAD, en ese momento R13, con una PC Gateway 2000, Pentium I de 133 Mhz y 250 MB de disco duro.  Claro, eran aquellos tiempos cuando podía encerrarme en la única oficina con aire acondicionado –por la computadora; no por mí-, y salir al calor de medio día con un suéter ocre a comprarme de almuerzo un chocolate Crunch y una coca-cola. 

A la mierda los triglicéridos que poco importaban.

aecosim1

BIM es hoy para mí lo que representaba un imposible cuando era el único tecnólogo apasionado por mecanizar lo manual –con lo que hubiera-. 

Si tan solo hubiéramos tenido AECOsim, el diseño preliminar no hubiera requerido hacer los bocetos acuarelados del Arquitecto Ramiro Bonilla, que por cierto eran impresionantes pero tristemente inmutables, en aquel anteproyecto del Edificio Principal del Banco de las Fuerzas Armadas de Honduras; se hubiera hecho de una vez en CAD, simulando los diferentes bloques de volúmenes que tanto costó conciliar con el concepto “sobrio” del Ingeniero Roberto López Carballo.  Luego de su aprobación, no habría tenido que batallar días por lograr la aprobación de la planta constructiva, con el sufrimiento implícito de Rudy y Rubén –hoy día arquitectos de respeto-, sobre todo porque una vez desarrollada la planta constructiva había que hacer esgrima con la paciencia del Ingeniero estructural Boris Viscovich y su molesto gusto por abusar de contrapesos, casi imposible con el ideal de espacios en el sótano para estacionamientos de 2.50 metros de ancho.

Con BIM, el diseño se trabaja en función de áreas funcionales, tal como lo hacen los arquitectos sobre AECOsim, sobre ejes amarrados a una plantilla I-model, de modo que el ingeniero estructural solo juega con tamaños, ejecutando una versión federada del mismo DGN sobre Bentley STAAD; sin las interminables iteraciones del Ingeniero Rivera, con sus hojas continuas impresas buscando momentos de voladizos óptimos.aecosim

BIM permite hacer de forma paralelo el desarrollo del sistema de aire acondicionado, con control preliminar de interferencia, haciendo distinción entre una viga de acero y una de concreto, por si hay que hacerle un hueco en el punto de inflexión, en el cuarto de longitud o si la cartela no lo va a permitir.  Nos hubiéramos ahorrado un mundo, luego que se rediseñó la cimentación tras las condiciones de humedad encontradas en la zona de los elevadores, 5 metros abajo del sótano, lo que implicó repensar el muro-cortina y reconfiguración de la losa de cimentación.  Combinar BentleyRAM para el anexo de acero estructural, GEOPAK para la topografía y Generative Components para el diseño curvado del auditorio hubiera sido un lujo… y todo sobre un fichero DGN alimentado en estándar IFC sobre ProjectWise, no importa que mi oficina estuviera en el Torres Valladolid de Comayaguela y que por las tardes debiera batallar en el aula de Biblioteca en el tiempo muerto de mi noche de universidad.

Pero el BIM va más allá de modelar el diseño, también incluye la simulación del proceso constructivo, recuerdo lo que costaba la decisión de los militares de esos tiempos por elegir un tipo de materiales para los acabados hacía interminable la simbología sobre el plano de ambientes; qué no decir de la actualización de cargas muertas luego que decidieron en lugar de confiteado pasar a mármol en todo el séptimo nivel.  Aplicando el modelado BIM se diseña utilizando elementos de la vida real, bien sea con Revit o AECOsim, solo hay que decir que eso es una pared, no importa el material, pero si está definido se dice que es de bloque de hormigón, que llevará repello de 0.75 centímetros de grosor, con mortero 1:4, pulido de cal y pintura base agua.  Aquí viene lo bueno, no tendría que estar haciendo cálculos, tras cálculos para estimar el costo, pues utilizando el plugin para Naviswork, puedo tener el presupuesto de manera dinámica sin importar los cambios idiotas de los pésimos gustos de los coroneles.

imodel2

Una vez finalizado el diseño, solo hay que generar los planos en planta, cortes, fachadas, sin estar haciéndolo a la antigua, inclusive las vistas en perspectiva, sumando el plus de las animaciones impresionantes que ahora no ocuparían horas de discusión en la sede del Instituto de Previsión Militar, con la nueva junta de comandantes que ocupaba conocer de nuevo todos los detalles del proyecto.  Los estándares IFC ahora permiten el intercambio sin importar si yo uso AECOsim (antes Bentley Architecture) y ellos AutoDesk Revit + Naviswork (que incluye ahora lo que hacía quantity take off).  De modo, que controlar el avance de obras no requiere ir a las libretas del Ingeniero Carlos Rosales, que no pegan con las cuentas de la Ingeniera Marisela, del Vaquero de fantasía Palma, ni con los garabatos de la Ingeniera Jessica Ortiz.  Me ahorraría el momento de procesar las estimaciones, ordenes de cambio y el control de avance en MsProject.

Ah, y por supuesto, BIM me ahorra lo que implicaría estar detrás de los minuciosos ojos de la Ingeniera Rosario, midiendo y anotando en su libreta cada detalles para definir los pedidos en formas especiales a Mármoles de Honduras, los barandales de bronce vía fax a la empresa Torogoz en El Salvador, o el pedido de cielo espejo que venía desde Miami y nadie sabe en qué contenedor de la Aduana de Puerto Cortés estaba extraviado.

Si crees que hacer renders con un software CAD es lo máximo, debes volver tu mirada al BIM, porque va más allá de lo que antes llamamos AEC (Arquitectura, Ingeniería y Construcción), AECO implica el ciclo de vida de la Operación, o sea el resto de vida del edificio que a esta altura, 20 años después no se ve como un proyecto de ingeniería sino como un proyecto económico –como siempre lo fue-.

La línea de tiempo del BIM está lejos, pero si algo puedes ganar por mientras, échale una mirada a Revit y AECOsim.  La inspiración que me causa es la misma de hace 20 años, la decisión por cual marca elegir lo dejo a tu gusto.

La entrada BIM – El mundo que hubiera soñado hace 20 años aparece primero en Geofumadas.

Orbemapa: Más mapas y más geografía

Hening en una interesante nota, que se incluye en el libro Research and Fieldwork in Development, destaca la importancia de la visualización geográfica en las ciencias sociales que resume en una frase con un llamamiento a la geografía :¡Dibujad más mapas! En ella plantea la necesidad de que los científicos sociales redescubran los mapas…

Orbemapa: ¿Por qué titular un mapa?

Crónica del título de un mapa Quizás te sientas protagonista de esta pequeña crónica de cartógrafo, si ese así tenemos noticias, esa pequeña duda final tiene todo su sentido, tenemos que cambiar esa forma de trabajo. El imperdonable destierro del título del mapa Un síntoma que refleja que el título de un mapa no…

TANTO: Raccolta dati per tutti: GeoODK e smartphones per sensori urbani (parte II)

NdR: questa è la seconda parte del post pubblicato qui.

Impostazione lato server: ona.io

Giuseppe: Proponiamo di partire da qui, dal “lato server”, dal momento che è la prima cosa che si va a vedere perché bisogna registrarsi: https://ona.io/join

image02

Una volta registrati, si può impostare un nuovo progetto e scegliere il livello di ‘privacy’. La pagina iniziale è la seguente (con il nome che avete scelto al posto di triestegeo, ovviamente).

image05

Dal sito alla voce ‘add form’ è possibile caricare il questionario/form impostato come file XLS, che nelle righe sotto vi spieghiamo come preparare.

Le ‘form’ saranno i questionari e la scheda di acquisizione dati, che successivamente verrà visualizzata sul vostro smartphone o tablet.

image04

Sarà possibile preparare più progetti e specificare il livello di ‘privacy‘, ovvero se progetto ‘pubblico’ o ‘privato’. Ona.io consente diverse possibilità: nel caso di un profilo ‘pubblico’ non vi sono fee da pagare, mentre per alcuni profili privati o con più restrizioni all’utilizzo, è prevista una quota da versare.

Il ‘lato server’ sarà il ‘contenitore’ dei dati, il luogo dove questi saranno conservati una volta caricati, e dove sarà possibile effettuare delle operazioni, quali visualizzazione tabulare o sotto forma di mappa, dove sarà possibile caricare eventuali file multimediali (come ad esempio immagini o video registrati) nonché dei report sulle attività (es. delle statistiche sulle acquisizioni di dati, ecc.) e scaricare i dati in vari formati una volta raccolti.

image07

Dal ‘lato server’ è possibile anche accedere alla WebForm, ovvero dalla finestra (su pagina web) da cui caricare i dati (qualora non si disponga di un dispositivo mobile adatto).

Ovviamente il passaggio necessario, prima di tutto ciò, è l’impostazione del questionario o form, ovvero il ‘cuore’ di tutto il sistema di raccolta dati!

Impostazione del questionario/form con un file Excel

Viola: la form contenente il questionario da caricare sul server per cominciare la raccolta è un file Excel (quindi con estensione .xls) che deve essere formato obbligatoriamente da due fogli di lavoro, denominati ‘survey’ e ‘choices’, cui si può affiancare a discrezione dell’utente un ulteriore foglio di lavoro rinominato ‘settings’. Nel foglio ‘survey‘ c’è la griglia di domande e informazioni da raccogliere, impostate in ordine ben preciso. Sono presenti varie colonne, di cui le principali (ed obbligatorie) sono:

  • Type
  • Name
  • Label

In ‘type’ si individua il tipo di inserimento (output) richiesto all’utente che compila la form relativa ad ogni domanda: testo, orario, numeri interi, coordinate, selezionare una o più opzioni da una scelta di risposte, coordinate GPS, immagini, audio, video e così via.

Nel foglio di lavoro rinominato “survey”.Possibili tipologie di output richiesti all’utente da specificare nella colonna ‘type’
Text Testo
Integer Numeri interi
Decimal Numeri decimali
select_one [nome della lista di possibili risposte, che si esplicitano nel secondo foglio]es. select_one affluenza_evento Per le domande a risposta multipla, dove è possibile selezionare solo una riposta
select_multiple seguito dal nome della lista di possibili risposte che si esplicitano nel secondo foglio]es. select_multiple nome_wifi Per le domande a risposta multipla dove si consente di selezionare varie risposte
Note È un campo che non ha bisogno di input da parte dell’utente, è una schermata normalmente utilizzata all’inizio o alla fine della survey per presentare il questionario o per ringraziare l’utente per l’inserimento
Geopoint Rileva le coordinate GPS
Geotrace Rileva le coordinate di una polinea
Geoshape Rileva le coordinate di un poligono
Image Si chiede all’utente di caricare o scattare una foto
Barcode Permette di leggere un codice a barre qualora sia installata sul telefono una applicazione in grado di leggere il codice.
Date Rileva la data in automatico
Datetime Permette di rilevare data e ora della compilazione del questionario in automatico
Audio Si può registrare un audio
Video Si richiede di fare un video o caricarlo dalla galleria
Calculate Permette di fare un calcolo

Nella colonna ‘name‘ si inserisce un nome con cui poter identificare la singola domanda, specificata poi per esteso come si vuole venga visualizzata nella compilazione del questionario colonna ‘label’. I dati verranno visualizzati con questo nome identificativo quando li si andrà a sfogliare dal sito internet.

Qualora si vogliano porre domande con risposte già preimpostate, è necessario inserire “select_one” se l’utente ha la possibilità di selezionare solo una risposta, oppure “select_multiple” se può sceglierne più di una, seguito dal ‘nome’ che identifica il gruppo di domande. Nel nostro caso si era deciso di avere informazioni sull’affluenza all’evento o nel locale di riferimento, con possibilità di scegliere tra ottima, buona, discreta o scarsa, e per quanto riguarda la presenza di free wifi si poteva di selezionare tra le due reti pubbliche, Eduroam e TriesteFreeSpots, oppure la presenza di una rete aperta del locale in cui ci si trova.

Spesso le immagini valgono più di mille parole e quindi guardate un po’ come abbiamo impostato noi il primo foglio di lavoro.

image06

Il campo ‘type’ per inserire il ‘datetime’ o solo ‘time’ o ‘date’ per permettere di capire gli orari e le date in cui si compila il questionario è molto comodo perchè questa informazione viene rilevata in maniera automatica.

Nel momento in cui si inserisce ‘geopoint’ per rilevare la propria posizione GPS, l’operazione può richiedere anche un paio di minuti (all’inizio) per essere abbastanza accurata, è normale. Se avete fretta, potete attendere che il fumetto vi dia indicazioni sulla precisione della rilevazione, cliccare su Registra Localizzazione e continuare a compilare il modulo fino a salvarlo; poi l’applicazione permette di modificare in seguito la posizione semplicemente spostando un puntino sulla mappa andando su “Edit data”.

È possibile anche impostare delle domande concatenate con una delle domande precedenti, ma questa funzione è stata assimilata solo dopo. Esempio: nel nostro caso era possibile fare le domande in riga 9 e 10 di specificazione su nome e copertura wi-fi solo se prima l’utente aveva selezionato ‘si’ alla domanda in riga 8, che richiedeva di dire se c’era un free wi-fi nelle vicinanze. Bisognava allora inserire una colonna denominata ‘Relevant’ accanto a ‘Label’ in corrispondenza di tali righe con campo ${si_no} = ‘si’, dove $ sta per ‘selected’ seguito tra parentesi graffe il nome della lista di risposte relative alla domanda (nel nostro caso si_no) seguito da un simbolo di “uguale” (‘=’) e dalla risposta tra apici singoli (”).

Nel secondo foglio di lavoro vanno inserite le griglie di risposte possibili alle varie domande a risposta multipla: il link con il primo foglio è dato dal nome della lista delle risposte inserito nella colonna ‘type’ dopo la dicitura select_one (oppure multiple), che viene ripetuto nel secondo foglio in prima colonna, chiamata ‘list name’.

È utile anche perché è possibile così evitare di riscrivere opzioni di risposta inserite già in altre liste, potendo riferirsi alla stessa: il più semplice esempio è dato dalle risposte come “si” o “no”. Se la lista di risposte si chiama si_no, è possibile inserire due domande del tipo select_one [si_no], con nome ed etichetta diverse, scrivendole nel foglio choices una volta sola.

image09

A questo punto, se si vuole è possibile aggiungere un altro foglio denominato ‘settings‘, dove inserire due colonna, ‘form_title’ e ‘form ID’, tramite cui è possibile denominare il questionario: in assenza il questionario avrà lo stesso nome dato al file xls che verrà caricato sul sito.

image08

‘Lato applicazione mobile’: GeoODK Collect e WebForm

Giuseppe: Il terzo componente del sistema è quello ‘mobile‘, ovvero relativo alla raccolta vera e propria dei dati.

Una volta scaricata l’applicazione GeoODK Collect, ricordiamoci che è solo nel Play Store, la schermata iniziale è la seguente.

image11

Per partire con la raccolta bisogna modificare le impostazioni preimpostate e caricare la form che ormai abbiamo già messo sul server. E’ necessario innanzitutto premere l’icona delle impostazioni (Settings) e poi General Settings, selezionare ‘altro server’, modificando l’URL preesistente con il server utilizzato per caricare i dati sul web, https://ona.io/nome_progetto/.

Tornando nelle impostazioni precedenti è necessario poi cliccare su ‘form management’, dove compariranno tutte le form create dal proprio account nel server e selezionare quella che ci interessa. Dopo aver premuto “prendi selezionato” e aver dato l’invio cliccando su “ok”, si ha in memoria la form “vuota” e si possono raccogliere i dati andando sull’icona ‘collect data’ e selezionando la form appena scaricata.

La app dà la possibilità di fare una serie di operazioni: modificare i dati delle form già compilati e salvati (edit data), spostare la posizione dei rilevamenti qualora non fossero abbastanza accurati, eliminare form (delete data) e, infine, inviare i dati al server (send data). Quest’ultima operazione è quella che ‘vuota’ dei dati il nostro dispositivo mobile: ricordiamo, infatti, che l’iniziativa ODK nasce per scopi ‘sociali’ e umanitari, ed è pensata pertanto per raccogliere dati anche in assenza di una copertura di rete, con pertanto la possibilità di inviare i dati soltanto una volta in cui questa sia resa disponibile.

Viola: Gli stessi dati possono essere raccolti anche tramite una webform, ovvero una pagina web dove sono riportate i medesimi quesiti della form, solo organizati ovviamente con un layout diverso. Perché usare questo strumento anziché l’app? per 3 motivi:

  1. Per i pigri che non vogliono installare l’app ma operare da browser;
  2. Per i possessori di dispositivi non-Android (Windows Phone e iPhone)
  3. Più semplicemente per chi ha magari acquisito dei dati ‘su carta’ e vuole ‘buttarli dentro’ a una banca dati comodamente seduto alla scrivania.

Attenzione che però non tutti i browser funzionano bene! Se vi interessa acquisire immagini, video o audio ci sono alcune limitazioni: serve il browser Chrome, se poi avete un iOS potete averle solo tramite un browser che si chiama Puffin! Comunque la rilevazione di tutti gli altri campi sarà possibile ;)

image00

Giuseppe: Se siete curiosi di provare GeoODK e a inserire qualche dato, provate con il progetto ‘Trieste Free Wifi Movida’! Si è concentrato sulla città di Trieste e per ora è terminato (Viola ha finito la tesi di laurea magistrale, e quello era l’oggetto della ricerca!), però potete provare a inserire dei dati sul wifi e sull’affollamento dei locali nella vostra città (magari mandateci un’email così mostriamo qualche elaborazione!). Potete farlo tramite la webform su Enketo qui sotto:Anche in questo caso è possibile sia inviare i dati immediatamente (‘submit‘ a fine acquisizione) o rimandare in un secondo tempo (e selezionare ‘save as draft‘).

https://rmvfk.enketo.org/webform

 

Oppure, dopo essersi installati GeoODK, andare su “Settings”, sotto “General Settings” scegliere il server “Altro” e inserire https://ona.io/triestegeo.

Su “Form Management” (sempre sotto ‘settings’) selezionare la form “Trieste_FreeWiFi_Movida”

A questo punto è possibile raccogliere dati e inserirli nel database creato per questa form (ovviamente la procedura sarà la medesima quando avrete creato il vostro progetto in Ona e caricato una o più form)!

La nostra Viola ha preparato anche un video su Youtube con una panoramica su come impostare la form su GeoODK e iniziare ad acquisire i dati! https://www.youtube.com/watch?v=EP2PA5ysyEk

Altre applicazioni

Viola: Questa applicazione è stata utilizzata anche per raccogliere dati sull’affluenza a due eventi cittadini, TriesteNext (weekend dedito alla divulgazione scientifica e dimostrazioni nell’ambito accademico organizzati dall’Università di Trieste) e FuoriRegata (serie di eventi lato terra che si svolgono la settimana precedente alla Barcolana). Con uno stand di ‘geografi’ capeggiati dal qui presente Giuseppe, sempre a Trieste Next 2015, abbiamo poi presentato due attività permesse dalla customizzazione di questa applicazione: una per ‘mappare’ la provenienza dei visitatori a Trieste Next e un’altra per la mappatura delle zone problematiche legate all’accessibilità e alle barriere architettoniche della città di Trieste.

image12

Appena pronti vi segnaleremo i collegamenti ai lavori che sono stati realizzati su questi progetti!

Conclusioni – altri sviluppi

Per i nostri progetti di mobile data collection abbiamo scelto la base di Open Data Kit per strutturare il sistema di raccolta dati, accompagnato all’app per dispositivo mobile GeoODK. In realtà GeoODK non è l’unica app che lavora in questo sistema. ODK Collect e Kobo sono due app che si basano sulla medesima architettura per la raccolta dei dati, consentendo anche la gestione di dati geolocalizzati.

(https://play.google.com/store/apps/details?id=org.odk.collect.android&hl=it; https://play.google.com/store/apps/details?id=org.koboc.collect.android&hl=it)

L’unico problema in questi due esempi è dato dal fatto che solo dati puntuali possono essere acquisiti durante una ‘campagna’ e possono essere visualizzati e modificati solo dopo averli scaricati su server.

Nel caso di GeoODK invece funzioni di visualizzazione e di editing dei dati possono essere fatte già da dispositivo mobile prima di caricarli sul server.

Un altro elemento importante, che tuttavia stiamo appena testando, è dato dal fatto che GeoODK consente di acquisire dati anche sotto forma di polilinea o poligono, oltre che punti (v. sopra il riferimento alle funzioni Geopoint, Geotrace e Geoshape). In questo caso, tuttavia, al momento le soluzioni lato server come ona.io non supportano la gestione di tale dato, per cui si rende necessario installare localmente ODK Aggregate, ovvero il server di aggregazione dei dati da dispositivo mobile. Siamo in fase ‘work in progress’ anche noi, speriamo di riuscire a testare anche questa soluzione! ;)

Per qualsiasi approfondimento non esitate a contattarci! Saremo felici di rispondere e approfondire gli argomenti!

L'articolo Raccolta dati per tutti: GeoODK e smartphones per sensori urbani (parte II) è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

TANTO: Raccolta dati per tutti: GeoODK e smartphones per sensori urbani (parte I)

GiuseppeOggi parliamo tanto di “cittadini sensori“, di Citizen Science, di crowdsourcing e, in poche parole, del coinvolgimento attivo da parte dei cittadini in progetti di raccolta dati (georeferenziati) sul terreno, per progetti di ricerca o di pubblica utilità.

Sappiamo che tali iniziative sono possibili in misura sempre maggiore grazie a delle “rivoluzioni” che ci hanno coinvolto molto da vicino e relativamente molto recenti. L’aumento della velocità di trasmissione dati su Internet, l’abbassamento dei costi legati alle tecnologie ICT, la disponibilità di sistemi di localizzazione GNSS (GPS e altri) a basso costo e di buona precisione (almeno per applicazioni diverse da quelle geodetiche!) e lo sviluppo di smartphone e Social Network hanno senz’altro reso più facile e veloce l’interazione tra individui dotati di dispositivi “smart”, tra loro e con piattaforme di condivisione di dati e informazioni.

Questo è senz’altro vero, ma iniziare a raccogliere dati geolocalizzati in maniera ordinata e sistematica e c ondividerli alla fine del processo richiede nella maggior parte dei casi un po’ di doti di programmazione o quanto meno di familiarità avanzata con strumenti di tipo informatico.

Tale premessa è alla base di quanto abbiamo cercato di sviluppare, a partire dall’estate del 2015, con i ragazzi dell’insegnamento di Geografia delle Reti, nell’ambito dei Corsi di Laurea Magistrali in “Scienze Economiche” e “Scienze Aziendali ” dell’Università di Trieste.

L’idea di partenza era quella di sperimentare modalità di crowdsourcing nell’acquisizione di dati geografici relativi a fenomeni urbani su piattaforme una soluzione senza costi di licenza e con un limitato ricorso a doti di programmazione.

Viola: Oltre ad una soluzione a basso costo e di relativa semplicità nell’impostazione del questionario, volevamo uno strumento che, oltre
a poter registrare dati sotto forma di punti, polilinee o poligoni, avesse queste caratteristiche:

  • relativa applicazione scaricabile (gratuitamente) su smartphone;
  • permettesse la compilazione del questionario anche in caso di assenza di rete;
  • permettesse di caricare un numero molto elevato di risposte da vari dispositivi (o comunque un numero in linea con le nostre esigenze);
  • fosse compilabile via sito web (in caso di problemi di compatibilità con il sistema operativo del telefono o in presenza di qualche buon’anima ancora dotata di Nokia 3310 come arma di battaglia!)

Potrebbero sembrare delle premesse un po’ pretenziose ma dopo varie ricerche, qualche decina di download (wi-fi permettendo) a causa di una rete casalinga un po’ ballerina, qualcosa abbiamo trovato.

Ci siamo imbattuti nella “galassia” di Open Data Kit, un progetto “open” che consente l’impostazione di sistemi client-server di raccolta
e archiviazione di dati da parte di operatori sul campo tramite dispositivi mobili.

Dal sito (https://opendatakit.org/) si legge che ODK (dove ODK sta per Open Data Kit, nel caso ve lo stiate chiedendo) è un “free and open-source set of tools which helps organizations author, field, and manage mobile data collection solutions“, che consente di:

  • costruire una form (o “questionario”) di raccolta dati;
  • raccogliere dati su di un dispositivo mobile;
  • aggregare i dati raccolti su di un server ed estrarli in formati utilizzabili.

Giuseppe: Open Data Kit inizialmente si è sviluppato basando su Google la gestione del proprio “lato server”, dopodiché si è affrancato dal mondo ”commerciale” basandosi soprattutto su architetture open source.

Il sistema richiede diversi elementi, esemplificati nell’immagine qui sotto, da integrare.

Innanzitutto una form, ovvero il questionario da sviluppare.

Una ‘piattaforma’ per la raccolta dei dati: qui ci viene in aiuto enketo.org per la realizzazione di una webform compilabile da (virtualmente) qualsiasi dispositivo, oppure un’app da caricare su dispositivo mobile. Diverse app sono state sviluppate: ODK Collect e KoBo Collect, solo per citarne un paio, soprattutto nell’ambito di progetti a contenuto umanitario o sviluppati apposta per scopi educativi.

Un server, ovvero un sistema centralizzato in cui salvare i dati immessi. Senza ricorrere a un nostro server si può fare riferimento alle piattaforme ODK aggregate e Ona.io.

Viste le applicazioni alternative basate sulla stessa base ODK, abbiamo scelto GeoODK perché ci è sembrata la più semplice e completa, perché consente anche la modifica dei dati prima dell’upload su una base cartografica digitale e di caricare sul dispositivo dei layer geografici ad hoc (non necessariamente le basi di sfondo tipo OpenStreetMap) – funzionalità non implementata nell’esempio che abbiamo riportato in questo report.

image00

Il Sistema ODK (Open Data Kit) e le sue componenti

Inutile dire che, per i nostri scopi, l’attenzione era rivolta alla raccolta di dati georeferenziati, sfruttando il GPS interno per geolocalizzarsi. Il
sistema ‘ODK’ offre numerose app già pronte utili per la raccolta dei dati, come ODK Collect e KoBo collect. Queste tuttavia consentono soltanto di caricare dati geografici sotto forma di punti (coppie di coordinate) e hanno un’interfaccia molto semplice e tutto sommato limitata, senza grandi possibilità di editing e visualizzazione dei dati sul dispositivo mobile.

Viola: L’applicazione scelta è stata GeoODK, dove il “Geo” sta per Geographical (Open Data Kit), sviluppata sempre a partire dalla piattaforma ODK, ma con un’attenzione maggiore al lato geografico.

In particolare consente varie cose in più rispetto a ODK, ovvero:

  • è più semplice;
  • consente di visualizzare e modificare i dati prima dell’upload su una base digitale sullo smartphone o tablet;
  • consente di caricare localmente dei layer geografici ad hoc (non necessariamente le basi di sfondo tipo OpenStreetMap) – funzionalità non implementata nell’esempio riportato;
  • consente di registrare, anche tramite form, dati sotto forma di punti, polilinee o poligoni (funzioni “geopoint”, “geotrace” e ”geoshape”).

image02

GeoODK permette di strutturare un questionario tramite un semplice file Excel (se vedete la parola “form” più avanti non vi spaventate, ci riferiamo a questo) e qualche piccola accortezza, fornendo già sia la propria applicazione mobile sia una soluzione “lato server” per l’aggregazione dei dati, individuata inizialmente in Formhub, dopodiché (a causa della sua lentezza e dell’abbandono da parte degli sviluppatori) trovata nella piattaforma ona.io (anche questa in seguito non più disponibile completamente free). L’alternativa “locale” rimane sempre ODK Aggregate, da installare su di un proprio server.

Mentre la seconda soluzione è più laboriosa, richiedendo di caricare ODK Collect sul proprio server (per il momento ci stiamo pensando ma non abbiamo ancora messo in pratica di sfruttare il server dell’Università di Trieste e il nostro adorato informatico A.P.), Formhub era già bello e pronto e richiedeva solo l’iscrizione (ovviamente gratuita) dell’utente. Problema incontrato già al momento della scelta di utente e password: il server faceva venire i sudori freddi. Era in sovraccarico un buon 70-80% delle volte in cui ci si connetteva e si aveva bisogno di lui. Qualche settimana fa poi il server non è definitivamente più aggiornato dall’organizzazione che se ne occupava quindi ve lo sconsigliamo proprio.

Il sito web http://geoodk.com/tutorials.php contiene un buon videotutorial su come impostare i diversi elementi di un progetto di Mobile Data Collection, presentati al GIS Day 2014. Da quello siamo partiti per il nostro lavoro, e qui sotto cerchiamo di sintetizzarlo un po’ a un pubblico italiano.

Dopo un paio di mesi di stress ed incubi causati dai continui problemi di sovraccarico di Formhub, a settembre il magico prof (Giuseppe) ha trovato un nuovo server su cui caricare i dati. Stesso layout di Formhub, stesse funzioni… la copia conforme ma rapidissima: Ona.io.

Così, un’altra registrazione più in là siamo finiti su un altro server felici e contenti come pasque. Escludendo il fatto che il primo ottobre hanno rilasciato una nuova piattaforma dal diverso layout per cui abbiamo avuto entrambi un colpo al cuore…temevamo di aver perso tutto!

In realtà abbiamo scoperto che dal 21 ottobre cambiano i termini di utilizzo e, in verità, il sito è stato migliorato e con le attuali condizioni è possibile avere un account gratuito caricando fino a 15 questionari e ricevendo fino a 500 risposte al mese, che tutto sommato – poi dipende dall’uso che si vuole fare- sono un buon numero.

LA SETTIMANA PROSSIMA IL SEGUITO …

L'articolo Raccolta dati per tutti: GeoODK e smartphones per sensori urbani (parte I) è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

Γεωπληροφοριακά Νέα: ΑΝΑΚΟΙΝΩΣΗ: 5ος Κύκλος σεμιναρίων GIS με πιστοποίηση το Φεβρουάριο στη Θεσσαλονίκη

certifiedH Επιτροπή GIS του Συλλόγου Διπλωματούχων Αγρονόμων-Τοπογράφων Μηχανικών Βορείου Ελλάδος (ΣΔΑΤΜΒΕ), ανακοίνωσε το 5ο κύκλο σεμιναρίων GIS που περιλαμβάνει επαγγελματική πιστοποίηση χρήστη GIS κατόπιν εξετάσεων. (Πιστοποίηση CPBGIS της ACTA)

Τα σεμινάρια θα διεξαχθούν μεταξύ 8 έως 24 Φεβρουαρίου, στη Θεσσαλονίκη (κάθε Δευτέρα-Τρίτη και Τετάρτη 17:00-21:00).

Μπορείτε να δείτε τη πλήρη ανακοίνωση εδώ και τη δήλωση συμμετοχής


neogeo: Le retour du Jedi

Il n’est pas coutume de causer de notre activité sur ce blog, mais il est des événements qui méritent quand même un petit commentaire, disons presque une annonce publique…

Depuis le 4 janvier notre équipe s’est agrandie d’un 4ème membre en la personne du fameux, unique et drôle Benjamin Chartier, pour qui il s’agit en fait d’un retour puisqu’il a déjà travaillé ici il y a quelques années, avant d’aller s’occuper de la plateforme GéoPicardie. Retour aux sources donc, sur ses thématiques favorites, à savoir la normalisation OGC et, signe des temps, INSPIRE, à laquelle il apportera désormais plus que la vision froide et technique de l’expert, le partage d’une expérience d’administrateur, la pratique du quotidien et le supplément d’âme de l’homme de terrain. On le retrouvera donc à nos côtés auprès des plateformes régionales avec lesquelles nous travaillons, ainsi que sur des projets plus transversaux.

Il nous représentera aussi lors des événements de la profession, groupes de travail AFIGEO ou Journées INSPIRE, que les forces de la gravitation décisionnelle font souvent se tenir à Paris ce qui nous en tient trop souvent éloignés, relégués que nous sommes dans notre lointaine région MPLR (dont nous espérons au passage qu’elle s’appellera Occitanie, ce ne serait que justice rendue à l’histoire, à la langue et à la culture).

Enfin, il reprendra aussi sans doute le clavier pour alimenter ce blog à mes côtés, ce qui ne pourra pas faire de mal à la fréquence de publication.

Sur ce, bonne année 2016 et meilleurs voeux à tous !

Orbemapa: Neogeografía: algo más que cartografía accesible

La revista Polígonos acaba de editar un monográfico dedicado a la Neogeografía con el epígrafe “algo más que cartografía accesible”. Este número ha contado con la coordinación José Cortizo Alvarez, profesor del Departamento de Geografía y Geología de la Universidad de León. En la revista podemos encontrar textos de Antonio Moreno, Gustavo D. Buzai,…

Dynamick: Magici regali geek per il Natale 2015

Come ogni anno raccolgo in questo articolo alcuni prodotti super “geek” per stuzzicare la fantasia e suggerirvi regali originali per vostro prossimo Natale 2015.

Ulo

photo-originalE’ un gufo hi-tech in grado di far la guardia alla nostra casa quando siamo assenti, di controllare i nostri bimbi oppure di farci l’occhiolino quando ci guarda. Può scattare foto o può essere usato come citofono IP. Ulo è un concentrato di tecnologia (IP camera, sensore di movimento, 2 display per gli occhi, modulo wi-fi, sensore di orientamento, autoparlante e microfono) racchiuso in un simpatico ovetto a forma di gufo. Attraverso i suoi occhi può comunicare il suo stato e dirci quando è stanco e vuole una ricarica, oppure quando ha appena scattato una foto o quando qualcuno sta guardando il suo streaming video.

Ulo è dispositivo IP e può essere governato da uno smartphone oppure può eseguire azioni automatiche in presenza di alcuni scenari, come attivare una luce quando si entra in una stanza, entrare in Alert Mode quando si esce di casa, oppure salvare il motion detection su dropbox. Tutto questo perchè si interfaccia facilmente on IFTTT.

Per il momento costa 149€ perchè è ancora nella fase di raccolta fondi di Kick Starter, che finirà il 5 dicembre 2015. Dopo tale data, il listino prevede un prezzo di 199€.

SunTree

suntree

Decisamente meno tecnologico ma altrettanto di design, SunTree che possiamo acquistare nello store di LoveTheSign. E’ un albero solare in grado di ricaricare qualsiasi smartphone via USB.  E’ un’idea green, per un natale più ecologico perché il caricatore ha bisogno solo di luce solare. Va posto quindi vicino a finestre o in stanze luminose o, meglio ancora, all’aria aperta. Per gli amanti della natura.

Il costo al pubblico è di 95€.

Desk Holder

desk-holder

Il caricatore Desk Holder è un caricatore da scrivania ma anche un supporto da tavolo per dispositivi Apple (anche iPad). La base è antiscivolo e il supporto di appoggio previene sforzi sul connettore. E’ un oggetto dal design minimale ed elegante, ottimo per essere regalato agli appassionati della mela.

Il prezzo è contenuto: 44,99€.

Natale per Emergency

bigliettiSuggerisco infine, come ultima proposta, peraltro la più nobile, lo store online di Natale per Emergency. Potrete acquistare il calendario 2016, oppure bigliettini di auguri o altri gadgets per sostenere Emergency.

In fondo, il Natale è una festa da condividere con tutti…

INSPIRE by clouds: Maintien de la journée INSPIRE du CNIG ce lundi

Malgré l’horreur des attentats qui nous a tous placé en état de choc, il a été décidé ce matin par le ministère de l’écologie, du développement durable et de l’énergie de maintenir la journée INSPIRE du CNIG. Il s’agit pour nous de poursuivre les activités prévues sans se montrer intimidés par ceux qui veulent détruire […]

Terra Observer: Selfie z orbity

Po internetach lata promocja pewnego piwa i pewnego filmu o tajnym agencie ;) trafiła nawet w takie rejony jak serwis niebezpiecznik, gdzie zastanawiają się, czy możliwe jest wykonanie tak szczegółowego zdjęcia z kosmosu.

Z tej okazji przypomnę stary post na ten temat: Satelita w ogródku

Zamieszczam również wersję tl;dr: Nie, nie jest to możliwe i nie należy wierzyć ani hollywoodzkim produkcjom, ani agencjom PR. Wystarczy prosty wzór z Wikipedii.

INSPIRE by clouds: INSPIRE pour les néophytes V4

La quatrième version de La directive Inspire pour les néophytes est disponible dans un nouveau format. Production à succès de la Mission de l’information géographique (MIG) du ministère de l’écologie, du développement durable et de l’énergie qui a la bonté de m’employer, #IPN (pour les gens à la page) tient compte des évolutions qui ont […]

Dynamick: Screensaver con splendidi filmati aerei

Apple in questi giorni ha lanciato sul mercato la quarta generazione dell’Apple TV che ha definitivamente conquistato il cuore anche dei più critici. Il nuovo hardware, che include, tra le altre migliorie, ache il telecomando vocale con Siri, andrà sicuramente a ruba come regalo per il natale 2015.
Ma c’è anche un’altra novità che stupirà i nuovi clienti: i fantastici salva schermo con viste aeree che sono state riprese in Cina, San Francisco, Hawaii, solo per nominarne alcune. Ora questi filmati possono essere gustati anche sul proprio Mac (o PC windows).

hawaiiGrazie al lavoro di John Coates, i filmati aerei possono essere visti grazie ad un salvaschermo chiamato Aerial. Questo piccolo software carica direttamente da Apple i video, in modo tale da visionarli sempre aggiornati. Inoltre possono anche essere filtrati e selezionati attraverso l’interfaccia di gestione dei salvaschermi del sistema operativo. Esiste anche una versione 1.2, peraltro ancora in beta, che salva in cache i filmati per ridurre l’occupazione di banda. Per gli utenti Microsoft, esiste anche il porting per Windows.

Come installare gli ScreenSaver di Apple TV su OSX

  1. Per iniziare, scaricate Aerial Mac screensaver dal repository github. Potete scaricare direttamente lo Zip (Aerial.zip).
  2. Scompattate il pacchetto per ottenere il file Aerial.saver
  3. Ora installatelo sul sistema operativo:
    1. Un semplice doppio click sul file per aprirlo e OSX vi chiederà di installarlo
    2. oppure spostate Aerial.saver in ~/Library/Screen Savers
  4. Ora che Aerial è installato andate nel pannello di controllo degli screensaver e configuratelo a piacimento.

Schermata 2015-10-30 alle 11.34.05

INSPIRE by clouds: Pourquoi ne pas mettre en œuvre INSPIRE

Ce billet n’a pour objectif que de relayer et mettre en avant celui d’Henri Pornon intitulé « Mise en conformité INSPIRE, punition ou nécessité pour les collectivités? ». En effet, plus on s’éloigne du cœur de l’Etat, moins l’ardente nécessité d’appliquer la loi, en tout cas celle-là, s’estompe pour de multiples raisons. Donc, n’appliquons pas ces textes […]

Earth-Dots - aktuelle Beitraege: Explosionskrater Tianjin

http://www.earth-dots.de/explosionskrater-tianjin-314294.html

INSPIRE by clouds: Un point sur la mise en oeuvre d’INSPIRE au 30 août : zoom sur les collectivités

Preuve de l’importance prise par l’évaluation de la mise en œuvre d’INSPIRE pour les plateformes régionales et pour les producteurs, malgré ses imperfections rappelées ici, on me demande de plus en plus souvent quand sortira la prochaine afin d’être en mesure de prendre les éventuelles mesures correctrices d’ici-là. Je réponds : nous avons réalisé une […]

Earth-Dots - aktuelle Beitraege: Moncler Women Jackets : Official Moncler Outlet Online Store

http://www.earth-dots.de/moncler-women-jackets--official-moncler-outlet-online-store-313689.html

neogeo: Inter-opérabilité réelle contre inter-opérabilité supposée

L’inter-opérabilité est un des enjeux majeurs de la publication de jeux de données géographiques sur le web. C’est la condition nécessaire (mais pas forcément suffisante) au partage des flux cartographiques et à leur bonne exploitation. Elle suppose donc la conformité de clients et serveurs aux mêmes standards, par exemple le WMS de l’OGC. Afin de parfaire cette oeuvre déjà ambitieuse, la directive INSPIRE impose certaines règles de publicité, description et mise à disposition des jeux de données, et des guides techniques se chargent de proposer des implémentations visant à garantir le maximum d’inter-opérabilité.

A l’occasion de la publication des données françaises de la base européenne Corine Land Cover (voir http://www.statistiques.developpement-durable.gouv.fr/donnees-ligne/li/2496.html) on se dit qu’on a là la quintessence de l’Inspiritude achevée dans la mesure où il s’agit d’un jeu de données européen (mais construit nationalement), mis en oeuvre par le Ministère de l’Environnement et du Développement Durable et intéressant potentiellement des profils d’utilisateurs extrêmement variés, de l’aménageur au naturaliste et de la FNSEA au ZADiste. Il s’avère donc parfaitement adapté à une petite mise à l’épreuve de son inter-opérabilité réelle face à son inter-opérabilité supposée qui, avec un tel pedigree, ne peut qu’être maximale, genre tu regardes l’URL et tu vois la carte en réalité augmentée.

Partons donc à la recherche de l’URL du service, seul vrai sésame de la cartographie interconnectée. En deux clics, nous rebondissons vers cette page à l’URL pas très friendly quand même (mais ce n’est pas grave puisque ce n’est pas le service lui-même) :

http://www.statistiques.developpement-durable.gouv.fr/donnees-ligne/t/services-web.html?tx_ttnews[tt_news]=24272&cHash=f13387facfa861b064b0771ca50e3bfa

Dans la page, nous trouvons une série de liens vers les différents avatars de la publication cartographique en ligne, plutôt bien décrits, même s’il faudrait en 2015 se rappeler que le WMS-C a fait son temps et que c’est le WMTS qui a pris la relève et qui est recommandé par INSPIRE. Mais déjà, on constate la complexité paradoxale qu’il y a à diffuser une URL de service WMS. Car une URL, par habitude, utilité, esprit grégaire ou automatisme, est généralement associée à un lien HTML dans une page web. Une balise « <a></a> » pour ceux qui s’en souviennent encore. Alors ici aussi, « WMS » est paré de ces attributs magiques le rendant cliquable. Sauf qu’un navigateur n’est pas un client WMS et ne sait rien en faire. Le serveur distant répond donc avec une belle erreur en XML, format particulièrement compréhensible par tout un chacun, qui ne dit d’ailleurs pas « Ouvre donc cette URL avec un client WMS », ce qui pourrait être constructif, mais tout simplement « Could not determine geoserver request from http request » ce qui peut s’apparenter à GFY en langage OGC.

On a donc déjà fait le tri entre les béotiens qui vont ramasser leur râteau en se disant que ça ne marche pas, et ceux qui savent que ah ah, il ne faut pas bêtement cliquer sur le lien, mais cliquer-droit et faire « copier le lien » pour aller s’en servir ailleurs. Le public concerné s’étant alors mécaniquement réduit aux 0,001 % de la population capable de comprendre WMS et de cliquer-droit, car ce n’est pas expliqué dans tous les masters de géomatique, certains prenant ça comme une condition d’admission, d’autres n’abordant tout simplement pas le WMS, le public ainsi sélectionné donc, on va pouvoir passer aux choses sérieuses…

Car maintenant qu’on a savamment copié le précieux lien dans le presse-papier, il va falloir aller le coller quelque part, et ce quelque part doit être un client WMS, sous la forme d’une application bureautique type QGIS ou sous la forme d’une visionneuse cartographique en ligne type Geobretagne. Le geste est technique, car il faut coller l’URL dans la bonne rubrique (pas WFS par exemple), mais, après quelques ratés, il va normalement déboucher sur l’affichage de la liste des couches proposées par le service ! Car le client WMS est un malin lui. Contrairement au navigateur web il a su trouver les mots pour s’adresser au serveur distant. Il a su lui chuchoter à l’oreille « GetCapabilities » avec ce mélange d’abandon et de soumission lascive qui seul peut faire céder un GeoServer tournant sous Tomcat 6 avec 1 Go de RAM. L’obtention de la liste des couches, c’est un peu le boss du niveau 1 de l’inter-opérabilité. C’est ensuite que ça se corse.

Il va en effet falloir faire son choix dans la liste. Car si on est arrivé là par envie plus ou moins masochiste de consulter CorineLandCover 2012, on se rend alors compte qu’il y a un CLC vecteur et un CLC raster ainsi qu’un CLC métropole et un CLC DOM. Le produit cartésien de ses diverses options s’élevant à 4, cela permet de réfléchir un peu à ce qu’on est en train de faire, puis de choisir les paramètres complémentaires de visualisation, à savoir la projection et le format d’image. Notez qu’on a alors perdu les 0,0005 % de la population qui était arrivé jusque là un peu par erreur mais qu’une bonne maîtrise technique avait néanmoins encouragé à persévérer. Nous ne sommes donc plus qu’environ une centaine de passionnés bien décidés à cliquer sur « Ajouter la couche » dont l’affichage final au bon endroit sur la carte constituera la victoire sur le boss de ce niveau 2. Et là, alors qu’on croyait bien maîtriser son sujet et qu’on avait jusqu’alors surmonté en souplesse les différents obstacles, on clique et.. RIEN ! Nib, que dalle, nada. Aucun affichage. Dans aucun des clients. En premier chef, on culpabilise. C’est toujours le cas en informatique. On a dû faire une erreur quelque part, choisir un Lambert 93 pour afficher la Guyane ou avoir déplacé la carte au pôle Nord. Mais après quelques nouvelles tentatives, changements de paramètres, chargement de données complémentaires aidant à la bonne localisation, déplacements divers et changements d’échelle, toujours rien. Rien de rien. On comprend alors avec soulagement mais aussi angoisse que l’erreur vient plus probablement du serveur, on passe au niveau caché, celui du diagnostic du flux WMS récalcitrant. C’est plus facile à faire dans un environnement web, car la console permet de voir les requêtes qui sont envoyées au serveur et les réponses d’icelui. On reprend donc GeoBretagne, on regarde les requêtes, on repère le GetMap et la réponse associée :

<ServiceExceptionReport xmlns="http://www.opengis.net/ogc" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" version="1.3.0"xsi:schemaLocation="http://www.opengis.net/ogc http://clc.developpement-durable.gouv.fr:80/geoserver/schemas/wms/1.3.0/exceptions_1_3_0.xsd">
<ServiceException code="LayerNotDefined" locator="layers">Could not find layer CLC m??tropole (Vecteur)</ServiceException>
</ServiceExceptionReport>

Le service indique, méprisant, que la couche qu’on demande n’est pas définie. Qu’elle n’existe pas dans le service alors même qu’on l’a choisie dans la liste qu’il avait lui-même proposée. En regardant un peu mieux on voit les ?? à la place du « é » de métropole. Et on comprend tout. Tu fais un service inter-opérable à l’échelle européenne et tu mets des accents dans les noms des couches ? Non mais allô quoi ! De la sorte, la dizaine d’utilisateurs encore décidés à faire afficher cette couche n’ont plus qu’à essayer de trouver un client WMS capable de bien encoder les accents dans l’URL. Et bon courage le jour où vous voudrez trouver la même chose sur la Pologne et que le type aura mis « różnorodność » dans son nom de couche.

En conclusion, voici un jeu de données européen, standardisé, parfaitement conforme à ses spécifications, doté d’une fiche de métadonnées INSPIRE à faire péter les scores NSi2 lors des rapportages annuels, décidément plus quantitatifs que qualitatifs, qu’il se révèle impossible de consulter selon les modalités d’utilisation de services prévus par notre directive chérie. Mieux… On remarque dans le Geocatalogue qu’on peut y visualiser la donnée en direct et ça échoue autant que les essais qu’on avait pu faire, ce qui est bien normal, mais que dans le même temps, une application dédiée de visualisation se révèle parfaitement opérationnelle. Après examen, on découvre qu’elle utilise le flux WMS-C, non standard car tuilé mais sans grille de référence (voir par exemple ce que répond le serveur à cette requête) et ne proposant pas la projection Mercator Sphérique pour les clients web. Donc voici ce jeu de données qui devrait être un parangon de vertu inspirée exploité dans son application de visualisation via des flux non INSPIRE et non référencés dans sa propre fiche de métadonnées. Est-ce l’illustration assumée des limites pratiques de l’inter-opérabilité telles que de nombreux acteurs de la géomatique essaient péniblement de la mettre en oeuvre ? Reste que cette incapacité à accéder aux flux ne semble pas gêner grand-monde non plus, comme si une bonne application de visualisation maison et une interface de téléchargement suffisaient à répondre aux besoins. A quels besoins INSPIRE s’adresse-t-elle déjà ?

ADDENDUM POST SCRIPTUM : Après analyse plus poussée du contenu du service j’ai mieux compris le problème. CLC Métropole est un groupe dans lequel on trouve différentes versions du CLC (2006, 2012…) parfaitement utilisables car avec des titres sans accents. Néanmoins deux remarques : pas plus que pour une couche un nom de groupe ne doit contenir de caractères spéciaux, et le contenu d’un groupe a vocation à être co-visualisé (c’est pour cela que le client WMS permet de le sélectionner, pour en afficher toutes les couches d’un coup) alors que le contenu de ce groupe n’est clairement pas co-visualisable puisqu’il s’agit plutôt d’une série temporelle de données.

 

Orbemapa: Cerrando la brecha GIS: “Hecho con GIS”

¿Existe la brecha GIS? En la actualidad tenemos una serie de indicios que apuntan a que la adopción y uso de los datos espaciales ha alcanzado una cierta madurez, al menos mediática, por parte de la sociedad. Entre los indicios podemos destacar los más conocidos por todos: A pesar de estas tendencias,post, tuiteos, noticias…

geomaticblog.net: III Edición Geocamp ES

A través de Geoinquietos Sevilla

El próximo 20 de junio se celebrará en Sevilla la tercera edición de la versión española de la Geocamp este año organizada por Geoinquietos Sevilla.

¿Qué es una Geocamp?

– Una desconferencia sobre temática GEO y software libre.
– Evento basado en el concepto de Barcamp y que se viene celebrando desde hace tiempo en Portugal.

El mundo de las tecnologías de la información geográfica (TIG) y el software libre está teniendo cada vez más peso en el mundo en que vivimos, tanto desde el punto de vista personal como profesional. Muestra de eso, en últimos años, se está generando un movimiento muy significativo formado por gente con grandes inquietudes sobre estos temas, a la par que están apareciendo cada vez más  profesionales del sector que participan en proyectos y jornadas de carácter nacional e internacional.

A partir de una de estas participaciones, concretamente en la Geocamp del año 2012 en Campo Maior (Portugal), nace la idea de crear un evento similar aquí en España, donde compartir experiencias y conocimientos sobre temas geo y software libre. Aquí está el germen de la Geocamp española.

Organizada por un grupo de Geoinquietos y apoyados por un conjunto de empresas e instituciones, la Geocamp es un evento con formato desconferenciaque intenta favorecer la participación y la colaboración, puesto que serán los propios participantes de la Geocamp los que conformen el programa de charlas el mismo día de su celebración, justo antes de comenzar. Por supuesto, está garantizada la participación de grandes nombres del mundo del software libre y de la geomática a nivel nacional e internacional.

La Geocamp 2015, que viene precedida de sus anteriores ediciones, realizadas en La Coruña y Vigo, respectivamente, se celebrará en el Parque del Alamillo, parque metropolitano que discurre entre el municipio de Santiponce y la propia ciudad de Sevilla y es de acceso libre (previo registro) y gratuito. Además, se ofrecerá a los asistentes coffe break y almuerzo para reponer fuerzas, regalos, etc., así como alguna sorpresa final. Todo esto gracias a los patrocinadores del evento.

Patrocinadores III Geocamp.es

Para estar atentos a todas las novedades sobre la Geocamp 2015 está disponible su portal web (http://geocamp.es/) y el blog de Geoinquietos (http://geoinquietos.blogspot.com.es/), así como sus perfiles de Twitter y Facebook.

Página de registro: http://geocampes2015.eventbrite.es/

¡Os esperamos en Sevilla!

Fuente de la foto original: https://flic.kr/p/ambxAZ


Archivado en: eventos

neogeo: Rien que pour vos yeux…

Jeu de données attendu depuis longtemps par tous les aficionados de la cartographie statistique, les Contours… IRIS® de l’IGN sont désormais disponibles en licence ouverte. Oui, c’est ouvert mais c’est une marque déposée de l’INSEE comme l’indique la base de données de l’INPI. D’où le ®. Ce qui est rigolo, c’est que les trois points de suspension après Contours font partie intégrante de la marque. On peut le voir comme pour souligner le côté flou ou flottant de ces contours, dont on aurait du mal à cerner les limites. Et c’est vrai que quand on creuse un peu le sujet, on se pose vite des questions.

Pour ceux qui n’auraient jamais été dessillés sur le sujet, reprenons un peu la généalogie de ce jeu de données (oui, je parle comme j’INSPIRE maintenant). Les IRIS sont des subdivisions communales construites par agrégations d’îlots (voir la documentation officielle) à vocation de représentation statistique plus fine que la commune. Ils ont été définis par l’INSEE pour le recensement de 1999, et ont porté alors à l’occasion le joli nom d’IRIS2000 (c’était l’époque où on regardait encore K2000 à la TV, et le directeur de la statistique de l’époque était fan de David Hasselhoff, qui fait d’ailleurs son grand retour actuellement avec son clip True Survivor que je conseille à tous, même s’il faut se fader 30 secondes de pub avant d’en profiter). Bref, pour les communes de plus de 10000 habitants et certaines de plus de 5000, l’INSEE établit donc des subdivisions, calées sur la voirie avec donc des délimitations genre « de la droite de la Rue du Marteau entre les n° 12 et 146 à la gauche de la Rue du Sabot, ce qui rend franchement agréable le travail de numérisation. C’est pour cela que ce jeu de données était revendu par quelques officines seulement qui, partant du fait que le boulot était éminemment pénible et qu’il s’adressait essentiellement à des activités de géomarketing où on se fait de la thune, le faisaient payer plus cher que l’ArcMap (pas de ® ici, vous pouvez aller déposer la marque) qui servait à les visualiser.

Comme à chaque fois qu’un jeu de données dépend d’un autre (ici la voirie), son cycle de vie devient un peu compliqué. Car si la description des IRIS donnée par l’INSEE ne change pas, leur représentation graphique dépend de la base de données voirie utilisée. Certes ce sont principalement des axes importants qui servent de limites, mais des différences subtiles peuvent exister entre bases voirie, et perturber le bon déroulement d’un géocodage à l’IRIS par exemple si on n’utilise pas la même base voirie pour travailler. Et comme évidemment les IRIS ont été régulièrement révisés pour s’adapter aux évolutions démographiques, il faut co-utiliser les bonnes versions chaque.

On ne peut donc que se réjouir de l’ouverture de cette donnée, et sachant ce que nous savons, nous intéresser à sa généalogie dans la documentation fournie. On y apprend (paragraphe 1.3.1) que la géométrie provient d’un GEOROUTE®, recalé sur un référentiel proche du RGE® IGN (mais pas tout à fait le RGE donc) et enfin généralisé. Les communes non subdivisées sont issues du GEOFLA® comme les limites des communes subdivisées pour garantir la cohérence du tout. Il est donc par ailleurs précisé que « La géométrie des contours d’Iris étant issue d’une généralisation des limites fournies par l’INSEE, les requêtes spatiales fines à l’adresse ou au bâtiment doivent être effectuées avec Iris… GE (Grande Échelle), produit IGN compatible géographiquement avec la précision de ces données. » On vous explique donc que pour du travail de précision il faudra plutôt utiliser un autre produit, ce qui peut sembler de bonne guerre puisque c’est la précision qui fait la valeur. La documentation IGN est d’ailleurs fort bien fait puisqu’elle illustre l’étape de généralisation par cette image :

Exemple

On y comprend que la source IRIS… GE proposée en bleu est transformée en Contours… IRIS® montrée en rouge après un bon exercice de généralisation. Tout est donc clair.

Sauf que… Quand on récupère le jeu de données (qui est en fait une collection composée de jeux départementaux préalablement regroupés par régions désignées par leur code. Il va falloir réviser la nomenclature) et qu’on l’examine, on y trouve des géométries plutôt similaires à IRIS… GE et donc non généralisées :

Iris... Contours

On est donc tenté de superposer tout ça avec les limites de communes issues du GEOFLA®, pour voir… que rien ne colle…

GEOFLA

Alors on inspire un grand coup, et on va voir un vieil épisode de K2000 parce que tout ça est finalement bien trop compliqué pour nous. Mais on a hâte que grâce à l’OpenData le citoyen lambda prenne son destin en main et utilise toutes ces données à bon escient…

 

MISE A JOUR DU 7 MAI 2015

L’IGN vient de mettre en ligne une version 2.0 des Contours… IRIS® 2014 avec des géométries parfaitement alignées sur celles du GEOFLA Communal. On peut donc féliciter l’IGN pour sa réactivité et se précipiter sur le nouveau jeu de données ! Autre amélioration, plus pratique : les différents shapefiles départementaux sont désormais tous dans le même répertoire et non plus classés par code région, ce qui rend beaucoup plus facile leur manipulation.

iris

neogeo: Un petit peu de Docker

Docker est sous les feux de la rampe depuis maintenant un an et demi environ. Après l’engouement des early-adopters, toujours prompts à porter au pinacle une nouvelle technologie et à l’abandonner aussi facilement pour une autre quelques temps après, il est sans doute temps de prendre un peu de recul et essayer de comprendre comment marche Docker et à quoi il peut bien servir.

Qu’est-ce que Docker ?

Commençons par dire ce que Docker n’est pas ! Ce n’est pas une technologie de virtualisation à proprement parler, ça ne permet pas de créer des machines virtuelles, mais des containers. La différence fondamentale tient à ce qu’une machine virtuelle s’exécute sur une abstraction de la couche physique, exposée par la couche de virtualisation et lui faisant par exemple croire qu’elle dispose d’un CPU, de 4 Go de RAM et de deux interfaces réseau alors que le serveur physique sous-jacent est très différent. La containerisation est un peu différente puisqu’elle résulte de l’isolation d’un ensemble de ressources (CPU, mémoire…) et de process qui le rendent complètement étanche à son environnement direct, le système hôte, dont il partage uniquement, mais c’est une différence importante avec les système de virtualisation, le kernel (noyau).

Ceci est illustré sur le site officiel de Docker par les schémas suivants :

vmSchéma avec Docker

On peut y voir à gauche l’empilement classique d’un hôte de virtualisation, avec un hyperviseur exposant aux VM les ressources sélectionnées. A droite, la couche « docker engine » est plutôt une couche d’orchestration et de référencement de containers fonctionnant de manière isolée sur l’hôte principal dont il partage le noyau. Docker ne fonctionne donc nativement pour l’instant qu’avec Linux, de même que les containers ne peuvent contenir que des logiciels Linux. Dans le container, on va donc trouver toute la pile applicative nécessaire au fonctionnement de l’application voulue, depuis les librairies système (glibc par ex.) jusqu’aux exécutables finaux.

Plus qu’une technologie, un écosystème.

Jusqu’à présent, la description ainsi faite de Docker pourrait avoir été presque identique s’il s’était agi de LXC, la technologie Linux sous-jacente sur laquelle Docker s’appuie. Sauf que si Docker a du succès, c’est un peu comme GitHub car il a su mettre en place un écosystème complet autour de sa technologie. En effet, sur le site docker vous trouvez des images vous permettant de lancer très facilement des containers pré-configurés de WordPress, ElasticSearch, MySQL, PostgreSQL. Ainsi, il suffit de lancer une commande simple de type « docker run -d neogeo/mapserver » pour lancer une instance de MapServer 7.1 configurée par nos soins sur votre système, isolée du reste de votre OS, mais accessible par le port prédéfini 80 (que vous pouvez aussi mapper vers un autre port de votre hôte). L’interpréteur docker vous permet ainsi de lancer des containers, de les arrêter, d’en construire vous-même et de les publier sur le dépôt central.

Dès lors, il est très facile de trouver des images intéressantes, de les tester, voire de s’appuyer dessus pour en construire de nouvelle. Car Docker a ceci de particulier qu’il référence le contenu des containers en une multitude de couches, les Layers, qui sont partageables entre plusieurs instances de containers. De la sorte, si vous lancez trois Docker Ubuntu, l’image elle-même et ses centaines de Mo ne sera pas répliquée trois fois sur votre système, mais utilisée à partir de la même origine. Donc économie d’espace, et surtout, dès que l’image a été récupérée une fois, lancement instantané des nouveaux containers.

OS ou pas OS ?

C’est une question existentielle qu’on se pose assez rapidement après avoir essayé Docker. Quand on voit toutes ces images Ubuntu, Debian ou CentOS, on s’interroge légitimement… Pourquoi charger un OS, on m’avait dit que Docker s’appuyait sur celui de l’hôte ? En effet, mais uniquement à bas niveau, sur le kernel. Dès lors, il faut quand-même installer dans le container tout ce qui permet au système de fonctionner (librairies diverses, applications de bas niveau telles que bash…). Et c’est donc des OS simplement allégés de leur kernel qu’il s’agit de déployer à l’intérieur des containers. Ce qui explique les différentes déclinaisons des principaux OS Linux, ou même de dérivés spécialement dédiés à Docker tels que CoreOS. Il y a aussi une distribution dédiée à la machine hôte (celle qui héberge les dockers), RancherOS.

Configuration

La configuration d’un modèle de container se fait via un fichier nommé Dockerfile, qui contient les différentes instructions de construction, depuis l’image de base (OS) à utiliser jusqu’aux composants à y installer et aux options à spécifier. Certaines configurations peuvent être très complexes, et il sera nécessaire à chacun de bien s’immerger dans le sujet afin de commencer à la maîtriser. D’excellentes ressources sont évidemment disponibles sur le web (mais sont parfois contradictoires quant à certaines méthodes d’optimisation, preuve que le sujet est vraiment neuf) et le meilleur point de départ est sans doute le site Docker lui même et ses dockerfile best practices.

Repenser les architectures

Au-delà des aspects techniques de son utilisation, Docker enjoint à s’interroger sur les architectures à mettre en place. La vocation assumée de Docker est en effet de faire tourner des micro-services. A la différence de machines virtuelles dans lesquelles on va reproduire ce qu’on aurait mis dans une machine physique (un serveur web, différentes applications et modules), le mode Docker incite à découpler tout ce qui peut l’être. Pour une simple application web, on peut par exemple utiliser 3 containers différents : un pour le serveur web et l’application proprement dite, un pour un serveur de base de données, un pour les données de la base de données, de manière à pouvoir mettre à jour et manipuler chacun des containers sans impacter les autres aspects de l’architecture. Vu la facilité associée de déploiement des containers, et de chaînage des containers entre eux, on est vite conduit à décomposer l’architecture applicative, à la déconstruire pour se diriger vers un ensemble de micro-services distribués. L’API part ici, l’admin par là, autant de containers différents pour des rôles applicatifs différents, avec l’avantage notable de faciliter les mises à jour différenciées et l’isolation de certains services.

Pour bien illustrer ce propos dans le contexte géomatique, on peut se pencher sur des services WMS/WFS. En appliquant les principes de Docker, on va pouvoir composer des containers dédiés à un service en particulier. Si on utilise MapServer, exemple pris au hasard, on peut très bien avoir 1 container pour 1 instance nginx + mapserver + 1 mapfile (qui peut par ailleurs être partagé sur la machine hôte de manière à être facilement modifiable par l’administrateur, ou partageable avec un autre container). Ainsi on fait glisser la sémantique applicative de « serveur OGC » à « services OGC », indépendants les uns des autres, même s’ils partagent un même modèle initial de container.

Conclusion

Les technologies de containerisation, et Docker en particulier, sont récentes et encore immatures par certains aspects. Mais elles bénéficient d’un développement très rapide (il est très difficile de suivra l’actualité de Docker tant l’effervescence est grande sur le sujet) et de nouveaux outils de plus haut niveau de configuration ou d’orchestration (Docker a récemment dévoilé Compose et Machine) permettent de s’affranchir de la relative rusticité des outils de base en travaillant à un niveau d’abstraction plus élevé. Un sujet à suivre, de toute évidence, car au moins autant que la virtualisation en son temps il porte les germes de pratiques réellement innovantes.

 

geomaticblog.net: Dear OSM, just chill out.

This is kinda a reply to Gary Gale’s “Dear OSM, it’s time to get your finger out“. The more I read that, the less sense it makes to me.


Update 2015-04-30: Read also Richard Fairhurst’s Realpolitik and the OpenStreetMap License and Simon Poole’s Is OSM business unfriendly?

I think of myself as a Linux nerd. I consider myself a hacker. And I’ve spoken so many times about open/libre licensing in conferences the issue became boring.

A couple of years ago, a psychologist asked me a question as part of a job interview: What makes you angry?. And my response was clear: Things not working and logical fallacies. So my brain hurt a little when I read these particular sentences in Gary’s blog post:

There are really only three sources of global mapping […]: NAVTEQ, TeleAtlas , and OpenStreetMap. […]

Surely now is the moment for OpenStreetMap to accelerate adoption, usage and uptake? But why hasn’t this already happened?

See, a tiny part of my brain screams “fallacy“. «OpenStreetMap has things in common with NAVTEQ and TeleAtlas, ergo it has to play in the same field and by the same rules as NAVTEQ and TeleAtlas».

Maybe OSM was given birth by SteveC to cover the lack of affordable datasources, and then a way for him and his VC-fueled CloudMade to compete with them. But for me and a whole lot of nerds, OSM basically was, and still is, a playground where we can run database queries all night long. OSM is a wholly different animal.

In 2010 I argued that Geo businesses and Geo hackers are playing the same game, but with different goals, which makes for an interesting game; a game in which it would be foolish to think that the opponent will play for the same goal as you. You have to play this game to maximize your score, which is not a synonim of decreasing the opponent’s score.

In other words: when I put something into OSM, I don’t frakking care what happens to NAVTEQ or TeleAtlas. The same way when I cook something for friends I don’t care what happens to the local pizza joint.

See, maps are an infrastructure. In Spanish GIS circles, specially those around the Spanish NSDI, cartography is often called “the infrastructure of infrastructures” You need maps to plan roads, power lines, land zoning. You need stupidly accurate maps to collect taxes based on how many centimeters square your house has, or to give out grants based on exactly how many olive trees you own.

During the late 2000’s I heard a lot of criticism about OSM. But most of it didn’t come from data-collecting companies – it came from public servants. “Volunteers use cheap GPS with low accuracy, OSM will never be accurate”, they said. “The OSM data model cannot be loaded into ArcGIS and won’t be of any use”, they said. “OSM data will never be authoritative”, they said. And a few years later, this happened:

That, right there, is the Guardia Civil (who are public servants) in a freakin’ control room using OSM for freakin’ pan-european coastal border patrols. Which means OSM is a freakin’ de facto infrastructure for sovereignty.

Fact is, government agencies play a wholly different game than commercial providers. The goal of a govt’ agency (and specifically those which maintain infrastructures) is to provide a service to citizens, not to make money. As a thought exercise, think about the public servants who place the border milestones, or the ones checking road surface quality, and guess how many fucks they give about NAVTEQ or TeleAtlas.

OSM is about the ownership of infrastructure. It’s about the efficiency of copyright law. It’s all about the digital commons, dammit.

And this is where I kick a wasps’ nest by turning this post into a political one.

A capitalistic liberal will argue that infrastructure is better handled by competing private entities, renting it to citizens for a fee. But remember, I’m a Spaniard, and that means that I’ve seen infrastructures such as power lines, water companies, telcos, motorways, airports and banks privatized under the excuse of theoretically running more efficiently in private hands. We have a nice word for what happened in the real world: “expolio“, which english-speakers might translate as “plunder”.

Thanks but no, thanks. I want infrastructures to be as close to the commons as possible. Maybe it’s because I now live in the land of the dugnad, and my bias makes me see maintaining the commons as beneficial for the society as a whole.

So when you look at OSM (or at the Wikipedia, for that matter) you’re really looking at a digital common good. Which puts OSM in the same basket as other digital common goods, such as programming languages, the radioelectric spectrum, technical RFCs, or state-owned cartography. Now go read the tragedy of the digital commons.

It’s sad to live in a world where the money-making is held above many commons, even at the expense of the commons. Fortunately it’s difficult for a private entity to pollute air, water or the radioelectrical spectrum without going unnoticed, but unfortunately copyright law cares next to nothing about intellectual commons.

<rant>Please, someone explain to me how giving me intellectual ownership of something I thought about until 70 years after my death makes me think about better things; then explain to me how that reverts into the common good. </rant>


TL;DR: Dear OpenStreetMap: just chill out and don’t listen to what they say. Corporations may come and go, but a common infrastructure such as you is here to stay.


Archivado en: opinión

年会費無料のETCカードってあるの?: シェル スターレックスカードについての判断

昭和シェル石油をガソリンスタンドとして利用しているならシェルスターレックスカードはとてもお勧めです。

 

シェルスターレックスカードを使えばガソリン代をキャッシュバックしたり自分の欲しい商品に交換したりできます。

なので昭和シェル石油を利用しているならシェルスターレックスカードを作らないとむしろ損かもしれません。

 

他にもいいところが沢山あります。

まず初年度は年間費がかかりません。

 

2年目以降は1,350円がかかってくるのですが、スタープライズコースを選択していて年間24万円以上利用していると年会費を無料にすることができます。

後はニコスのサービスが付帯されており保険や優待割引などを受けることができます。

 

それに毎月10日と20日は1.5倍の値引きをしてくれるのでこの日に給油すればかなりお得になります。

ただシェルスターレックスカードには残念な点もあります。

 

それは他社と値引き額を比べるとあまりいい数字ではないという点です。

毎月給油する日を考えて、なおかつ年間費を無料にするために24万以上を利用してガソリン代のキャッシュバックも受ければ他社と比べても何の見劣りもありませんがそういったサービスを受けずにただ利用するとなるとあまり魅力的ではないかもしれません。

 

ですが24万円以上というのも普段の支払いなどをこのカードで行えば簡単に達成できる金額だと思いますしガソリン代のキャッシュバック等もスタープライズコースを選択していれば簡単に受けることができるので、特に難しいことではありません。

なので総合的に見ると持っていた方がいいと言えます。

geomaticblog.net: Mapping Party en Poio, Pontevedra

El sábado 11 de abril en el Centro Xaime Illa de Raxó (Poio) llega la fiesta de las fiestas, la Mapping Party Poio’15 con el objetivo de pasarlo bien mientras aumentamos los datos geográficos de la costa de Poio con una licencia libre.

http://www.openstreetmap.org/export/embed.html?bbox=-8.757382929325104%2C42.403051783861024%2C-8.752903640270233%2C42.40485013856018&layer=mapnik&marker=42.4039509676542%2C-8.755143284797668

Este taller está organizado por la asociación de software libre Xeopesca y cuenta con la colaboración del Concello de Poio y las asociaciones SCD Raxó y ACDeM Armadiña.

Horario

  • 10:00-11:00 Presentación de OSM, organización de equipos para la zona a cartografiar.
  • 11:00-14:00 Trabajo de campo con explicaciones de como emplear osmAndroid.
  • 14:00 -16:00 Comida.
  • 16:00-20:00 Trabajar con las computadoras para el volcado de los datos OSM
  • 20:00-20:30 Clausura del curso.

Asistentes

El número de asistentes será de 25. La selección de los candidatos se realizará por orden de inscripción. Se recomienda la disposición de cualquiera de los siguientes dispositivos:  GPS, teléfono con GPS y cámara digital.

Formulario de Inscripción

Para inscribirse a Mapping Party Poio’15 cubre el formulario. (ver aquí) (poio.xeopesca.gal) .

Material fungible

Se hará entrega a cada uno de los asistentes de un bloc de notas, un bolígrafo y un lápiz.

Redes SociaLes

Establecemos el hashtag #mappingpartypoio para seguir el evento a través de las redes sociales. Además también puedes seguir la  Mapping Party Poio’15 a través de twitter mediante el hashtag #mappingpartypoio o en la  página de facebook de XeoPesca.

 

SITIO WEB OFICIAL

http://poio.xeopesca.gal/

 


Archivado en: GIS

geomaticblog.net: EMT Madrid, or Open Data antipatterns

Today, february 21st 2015, is the Open Data Day. And given that I’m far asay from my favourite Open Data nerds down at the Medialab Prado, I decided to work on giving the old ¿Cuánto Tarda Mi Autobús? website a facelift.

The story behind ¿Cuánto tarda mi autobús? is rather simple. A couple of years ago I got my first smartphone, and one of the things I wanted to do is check for the bus times in Madrid. Back then, EMT Madrid (the public company which runs the buses) was heavily promoting its new website in the Spanish GIS scene. The major problem was that the website for checking the times was made with Flash (actually, with ESRI Flex) and simply there is no way to use that with a smartphone.

So I reverse-engineered the protocol (if you call “reading a WSDL document” reverse engineering), did a bit of PHP plus Leaflet, and I was able to check the bus times with a web app.


 

Fast-forward to the present. EMT had released the API details under the banner of «Open Data EMT», I had a saturday to devote to the Open Data Day, and my little web app needed some love after two years of no updates at all.

But, oh boy, every time I try to develop anything with interfaces made by big subcontractors, I cannot stop cringing at the amount of WTF found around.

The antipatterns

Antipattern 1: «Open Data» which isn’t actual Open Data.

In the same way that Open Source software can only be Open Source if it meets the Open Source Definition, Open Data is only Open Data if it meets the Open Definition. Period. These definitions are evolved versions of the DFSG and Free Software Definition, curated with years of experience and discussions about what is open and what is not.

So, the Open Definition states:

2.1.8 Application to Any Purpose

The license must allow use, redistribution, modification, and compilation for any purpose. The license must not restrict anyone from making use of the work in a specific field of endeavor.

From «OpenData EMT»’s terms and conditions:

1. The re-user agent is explicitly prohibited from distorting the nature of the information, and is obliged to:
a. Not to manipulate nor falsify the information.
b. Ensure that any information displayed in your system is always up to date.
c. Not to use the information to undermine or damage EMT’s public image.
d. Not to use the information in sites that might lead to a relation with illegal acts or attempts to sabotage EMT or any other entity, organization or person.

So apparently I cannot:

  • Display historical information (because my data must be up-to-date).
  • Say that the system is a complete piece of steaming crap from a technological point of view.
  • Use the information in sites such as Facebook or Twitter, because those sites might be used for an attempted sabotage to «any entity or person». Who the fuck wrote this blanket clause, folks?

Please, don’t call it «Open Data».

I have to give praise to the EMT, though. The previous version of the agreement obliged the reuser to not disclose that he/she signed an open data agreement. At least they fixed that.

Antipattern 2: Your SOAP examples contain raw XML.

The whole point of SOAP was to abstract data access. And, still, every public SOAP interface I’ve ever seen includes examples with raw XML fragments that you’re supposed to build up.

If you cannot write code that access SOAP without writing XML, you’re doing it wrong.

Think about how WMS interfaces work nowadays: you just publish the WMS endpoint, and your GIS software takes care of the capabilities and the

Antipattern 3: Keep default fake values in your production code.

From the docs:

tempuri

Note «tempuri.org». A quick search will tell you that the system was designed using Visual Studio, and some lazy so-called software engineer didn’t bother to change the defaults.

Antipattern 4: Fuck up your coordinate systems

Note to non-spaniard readers: The city of Madrid is located roughly at latitude 40.38 north, longitude 3.71 west.

Now look at this example from the EMT docs about how bus coordinates are returned:

positionbus

Antipattern 5: Mix up your coordinate systems

Write things like “UTM” and “geodetic” in your documentation, but do not write which UTM strip you’re referring to (hint: it’s 30 north, and the SRS is EPSG:23030). Make some of your API methods to return coordinates in EPSG:23030 and some others to return coordinates in EPSG:4326.

And for extra fun, have your input coordinate fields accept both of those SRSs as strings with comma-defined decimal point, and then do this in the documentation:

coordinateint

Antipattern 6: Self-signed SSL certificates

Srsly?

sslcert

Antipattern 7: Wrap everything up in HTTP + JSON and call it “REST”

REST is a beautiful technology because it builds up pretty much on top of raw HTTP. Every object (“resource”) has its own URI (“universal resource identifier”), and the HTTP verbs are used semantically (GET actually gets information, POST modifies information, DELETE deletes a resource, and so on).

Also, HTTP status codes are used for the return status. An HTTP status code 200 means that the data is OK, a 404 means that the resource doesn’t exist, a 401 means that you are not authorized to get/post/delete the resource. Reusing the semantics of HTTP is way cool.

So, in a REST interface for bus stops, the stop number 1234 (a resource) would be located at its URI, e.g. http://whatever/stops/1234. It’s beautiful because the URI has a meaning, and the HTTP verb GET (which is the default when a web browser is fetching something) has a meaning. The server would answer with a “200 OK” and then the resource.

Low-level, it should look like:

GET /stops/1234 HTTP/1.1

-----

HTTP/1.1 200 OK
Content-Type: text/JSON

{
"stopId": 1234, 
"latitude": 40.3,
"longitude": -3.71,
"stopName": "Lorep Ipsum Street",
"lines": ["12", "34"]
}

Now compare the theoretical RESTful way to fetch one bus stop with the real-life mess:

POST /emt-proxy-server/last/bus/GetNodesLines.php HTTP/1.1
idClient=user&passKey=12345678-1234-1234-12345678&Nodes=1234

-----

HTTP/1.1 200 OK
Content-Type: text/JSON

{
"resultCode":0,
"resultDescription":"Resultado de la operacion Correcta",
"resultValues":{
  "node":1234,
  "name":"ROBERTO DOMINGO-AV.DONOSTIARRA",
  "lines":["21\/1"],
  "latitude":40.434861209797,
  "longitude":-3.6608600156554
  }
}

So, meaningless URI, POST request to fetch a resource, duplicated return status codes (for the HTTP layer and some other underlying layer).

Let me say this very, very clearly: In REST, you do not wrap a resource in a call to get that resource. Geez.

My takeaway

Readers will do good to keep in mind that I’m using my spare time in order to participate in the Open Data Day, for fun. The problem is that working with such an arquitecture is no fun at all. I can deal with these kind of enterprisey, Dilbertesque software stacks in a day-to-day basis, but only if I’m getting paid to endure the cringing and teeth-grinding.

I think it’s because the mind of an Open Source / Open Data nerd like me is difficult to understand by the classic propietary software people. I develop software just for the fun of doing so, just because I can, just because I like the feeling of empowerment of creating my own tools.

I write a lot of open source stuff. I fix wikipedia from time to time, I map stuff on OpenStreetMap if something’s wrong. I like to do it, and I empower other people to build upon my work.

Building upon good Open Source/Data doesn’t feel like standing on the shoulders of giants. It feels like standing on the soulders of a mountain of midgets… and if you’re lucky, you’ll be one of those midgets and someone will stand upon your shoulders.

For me, that involves a great deal of humility. When I watch the closed-source crowd talk about their latest product or software, they are congratulating themselves, but when I watch the open-source crowd, they’re constantly critizising themselves. And I can critizise them and they can critizise me and we all learn and that’s why they’re awesome.

</rant>


Archivado en: formatos, geodatos, opinión

Earth-Dots - aktuelle Beitraege: JMTC Grafenwöhr mit 29 neuen US-Panzern beliefert

http://www.earth-dots.de/jmtc-grafenw-hr-mit-29-neuen-us-panzern-beliefert-286723.html

Geografitti - nicht nur Geografisches: Neues Projekt 2015: Geography Matters

Ich habe ein neues Projekt. Und ich mache das nicht allein (…aufgeregtes hibbeln…).

Alles weitere gibts direkt auf der nigelnagelneuen Seite http://www.geography-matters.de

Das ist noch eine Baustelle, aber es gibt schon etwas zu lesen. Zum Beispiel (m)ein Essay über das Verhältnis von Realität und Karten im digitalen Zeialter. Und ganz viel dazu, was das alles werden soll. Und meine Mitstreiterin sagt, wenn man in beiden Texten die ersten zwei Absätze überstanden hat, werde es sogar ganz interessant.

Was und ob hier etwas passiert, weiß ich noch nicht. Aber ich glaube die Geo-Themen wandern mittelfristig zum neuen Projekt und hier wird es langfristig ein wenig persönlicher. Anregungen, Kommentare und Kritik dann gerne bei Geography Matters.

 

Geografitti - nicht nur Geografisches: Jahresrückblick 2014

Beste Entscheidung: Der Um- und Ausbau der Wohnung (wegen: viel schöner jetzt)
Schlechteste Entscheidung: Der Um- und Ausbau der Wohnung (wegen: viel ärmer jetzt)

Beste Anschaffung(en): Der Ilve Gasherd mit der runderneuerten Küche drumrum
Dämlichste Anschaffung: Loewe Airspeaker, der entschieden Widerstand leistet, bei dem Versuch, ihn in ein WLAN zu bringen. Vor allem wegen der bescheuerten Hinweise des Herstellers und aus diversen Foren, das Gerät funktioniere per Kabel viel besser. ICH HAB DAS BLÖDE DING ABER WEGEN DER WLAN-FUNKTION GEKAUFT UND DER HERSTELLER WIRBT AUCH DAMIT !!!!!!!!

Bestes Getränk: Neumarkter Lammsbräu Dinkel war meine diesjährige Bier-Entdeckung.
Ekelerregendstes Getränk: Ich mag einfach keinen Glühwein.

Bestes Rezept: Bestimmt irgendwas beim Lieblingsgriechen.
Schlimmstes Essen: Bestimmt irgendwas vom Thai-Imbiss.

Beste Musik: Natürlich wieder mal Tina Dico (“Old friends”) aber es gefiel auch First Aid Kit (“SilverLinings”) und Family of the Year (“Hero”)
Schlimmstes Gejaule: Natürlich dieses Asthmatiker-Hymne, irgendwas mit atemlos. Aber auch Revolverheld haben etwas genervt mit ihrem Energieverschwendungsaufruf

Eigene, schönste musikalische Wiederentdeckung: Dass der Klassiker “Don’t let me be misunderstood” von Nina Simone ist und von den Animals gecovert wurde.
Peinlichster musikalischer Faux-Pas: Ich hab glaub ich irgendwann nach einem WM-Spiel lauthauls Bourani mitgegröhlt. Nunja.

Beste Idee: Die tollen Designer-Fliesen für die neue Küche
Dämlichste Idee: Die tollen Designer-Fliesen für die neue Küche

Beste Lektüre: Ich habe wieder kein einziges Buch gelesen.
Wiederentdeckte Lektüre: Ich habe wieder kein einziges Buch gelesen.
Langweiligste Lektüre: Ich habe wieder kein einziges Buch gelesen.

Zugenommen oder abgenommen?
Es gibt wieder mehr von mir

Haare länger oder kürzer?
Immer noch bezopft. Aber nicht länger.

Kurzsichtiger oder weitsichtiger?
blinder

Mehr ausgegeben oder weniger?
Viel mehr als gedacht, Wie das so ist bei Umbauten im Altbau…

Der hirnrissigste Plan?
Nee, wieder nicht. Ich bin ja sowas von vernünftig.

Die gefährlichste Unternehmung?
Ach, ich fand nichts von dem gefährlich, was ich gemacht hab. Sonst hätte ich es ja nicht gemacht.

Die teuerste Anschaffung: Als Einzelstück das neue Wohnzimmerfenster. Aber der Umbau insgesamt schlägt als zweitteuerste Anschaffung des Lebens zu Buche – direkt nach dem Wohnungskauf selbst.

Der ergreifendste Film?
“Im Labyrinth des Schweigens” und “Das Schicksal ist ein mieser Verräter.”
Verweise für beide Filme auf Kafka: “Im Kino gewesen. Geweint.”

Die beste CD?
Unterm Strich dann “Lights out” von Ingrid Michaelson

Das schönste Konzert?
Wäre mit Sicherheit Ingrid Michaelson im Hamburger Mojo-Club geworden. Ist aber ausgefallen. So ist es die “Hair”-Inszenierung im Bremer Theater.

Die meiste Zeit verbracht mit?
der Frau an meiner Seite.

Die schönste Zeit verbracht mit?
der Frau an meiner Seite.

Vorherrschendes Gefühl 2014?
Satt

2014 zum ersten Mal getan?
Schöffe gewesen, an Urteil mitgearbeitet

2014 nach langer Zeit wieder getan?
Musik-CDs gebrannt und mit dem Büro umgezogen

Drei Dinge, auf die ich gut hätte verzichten können:
Die Keller-Überschwemmung in der Verlängerung des WM-Endspiels
Der Kurzaufenthalt des Juniors im ägyptischen Gefängnis
Der Rettungswagen inklusive Notarzteinsatz. Ich konnte nur mit ganz vielen Unterschriften verhindern, abtransportiert zu werden.

Die wichtigste Sache, von der ich jemanden überzeugen wollte?
Dass so ein Gasherd quasi lebensnotwendig ist.

Das schönste Geschenk, das ich jemandem gemacht habe? Kleine gepunktete Auflaufformen

Das schönste Geschenk, das mir jemand gemacht hat? Das gibts immer dann, wenn die Frau an meiner Seite irgendwo mit mir hingeht, wo sie sonst nie hingegangen wäre und sich dann sehr dafür interessiert.

Song des Jahres: “Someone you love” – Tina Dico

Fernsehserie des Jahres: Nach dem Ende von “Breaking Bad” erst mal ins Loch gefallen. Am ehesten noch die 2. Staffel von “Die Brücke – Transit in den Tod”

Kleidungsstück oder Accessoire des Jahres: Mein im Grunde neuwertiger Lieblingspullver, den der Schneider unverständlicherweise nicht mehr flicken wollte, wegen “lohnt nicht mehr”.

Tier des Jahres: Giraffe. Dass die wirklich große Köpfe haben, merkt man auch erst, wenn der durchs Autofenster kommt.

Wort des Jahres: Aufkantung

Satz des Jahres: “Da ist doch noch ein Schornsteinabzug frei!” (Schornsteinfeger löst Planungsproblem)

Peinlich (andere) 2014: Ich muss feststellen, dass ich mich nur sehr wenig in Fremdschämsituationen begebe. Und jetzt Markus Lanz zu nennen ist ja irgendwie billig.

Peinlich (selbst) 2014: Sag ich nicht. Ist mir peinlich.

Angst 2014: Immer noch rein finanzieller Natur. Schlimmer geworden.

Wutanfall 2014: Siehe dämlichste Anschaffung. Könnte mich schon wieder AUFREGEN!!!!

Persönlicher Höhepunkt des Jahres:
Ich weiß nicht mehr genau, was es war, aber ich hatte recht.

Persönlicher Tiefpunkt des Jahres:
Diskussion mit Rettungssanitätern, für die mein baldiger Tod auf der Toilette scheinbar ausgemachte Sache war

Siehe auch: 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006

GIS Ελλάδα: Παρουσίασεις στο HellasGI συνέδριο στην Αθήνα 11/12 Δεκεμβρίου 2014


Workshop - Πέμπτη 11 Δεκεμβρίου 2014 - 11.00



Συνέδριο Β' - Παρουσίαση - Πέμπτη 11 Δεκεμβρίου 2014 - 14.00


Επίτευχη της διάχυσης γεωγραφικών πληροφοριών στο Δήμο Bretagne Romantique Γαλλίας