Γεωπληροφοριακά Νέα: Τα δεδομένα του OKXE είναι διαθέσιμα!

Ο ΟΚΧΕ είναι ζωντανός!

Ο ΟΚΧΕ είναι ζωντανός!

Τον θυμάστε τον ΟΚΧΕ; Καταργήθηκε και απορροφήθηκε(;) από τη ΕΚΧΑ. Φαίνεται όμως ότι τα δεδομένα του εξακολουθούν να είναι διαθέσιμα σε μορφή WMS!

Υπάρχουν διάφορα θεματικά επίπεδα που μπορείτε να επιλέξετε. Τα περισσότερα είναι διαθέσιμα και στο geodata.gov.gr. Όχι όμως όλα. Για παράδειγμα, υπάρχει το σύνολο του οδικού δικτύου της Ελλάδας με τη κατηγοριοποίηση της ΔΜΕΟ (αυτοκινητόδρομοι, πρωτεύον, δευτερεύον, κλπ.)

Για να δείτε τα δεδομένα στο ArcGIS 10.x

  • Ανοίξτε το ArcGIS και πατήστε το [Add Data].
  • Επιλέξτε GIS Servers->Add WMS Server

arcgis_addwms1

  • Στο επόμενο παράθυρο βάλτε το παρακάτω URL:  http://213.16.130.14:6578/geoserver/eygep/wms και πατήστε το [Get Layers]. Θα εμφανιστούν τα διαθέσιμα επίπεδα.

arcgis_addwms2

  • Πατήστε ΟΚ και 1-2 φορές κλικ στο «ΑΝΑΞΙΜΑΝΔΡΟΣ»

arcgis_addwms3

  • Πατήστε στο [Add]. Θαυμάστε το αποτέλεσμα:

arcgis_addwms4

Αν πάλι είστε του ανοικτού κώδικα, ακολουθήστε αυτά τα βήματα για να προσθέτετε τα layers στο QGIS:

  • Επιλέξτε Layer-> Add Layer->Add WMS/WMTS Layer

qgis_addwms1

  • Στο παράθυρο που θα εμφανιστεί πατήστε [New]:

qgis_addwms2

  • Βάλτε το ίδιο URL όπως και παραπάνω:

qgis_addwms3

  • Πατήστε ΟΚ. Θα εμφανιστεί λίστα με τα επίπεδα. Προσοχή εδώ- αν επιλέξτε το πρώτο (ΑΝΑΞΙΜΑΝΔΡΟΣ) θα προστεθούν όλα τα θεματικά επίπεδα αλλά στο QGIS δεν έχετε τη δυνατότητα να επιλέξετε μετά ποια να κρύψετε και ποια όχι οπότε καλύτερα να επιλέξετε μόνο αυτά που θέλετε (στο παράδειγμα εδώ, Περιφερειακές, Ενότητες, Οικισμοί και Οδικό Δίκτυο)

qgis_addwms4

  • Πατήστε [Add] και (ξανά-) θαυμάστε το αποτέλεσμα:

qgis_addwms5

 


Landkartenblog: Die Weltkarte der Browser (2008 - 2015) - Der Niedergang des Internet Explorer

Google erobert die Welt. Auch bei den Browsern. 2008 war die Welt noch vom Internet Explorer erobert worden. Der Netscape Navigator war schon lange Geschichte. Ab 2010 sah die Welt schon anders aus. Firefox und Google Chrome kamen auf. Durch die Schnelligkeit von Google Chrome hatte aber auch Firefox nur wenig auszusetzen. 2015 ist die Welt, bis auf Zentralafrika ein Googleland.


Blog IDEE: Servicio de mapas de Minutas Cartográficas del IGN

El IGN publica un nuevo servicio de mapas titulado Minutas Cartográficas. Este WMS permite visualizar archivos ráster correspondientes a la digitalización de los mapas manuscritos en papel conservados en el Archivo Técnico del IGN. Son los trabajos previos a la realización del Mapa Topográfico Nacional, en algunos casos con varias décadas de diferencia a la publicación de la primera edición del MTN de la zona. Este tipo de documentos se realizaron principalmente entre 1870 y 1950 y se clasifican en minutas planimétricas, minutas altimétricas y minutas conjuntas de altimetría y planimetría. Dibujados a escala 1:25.000, con una precisión de obtención de la información correspondiente a escala 1:50.000.
El servicio permite la consulta de cada una de las minutas, a través de la operación GetFeatureInfo, permitiendo acceder al enlace de las minutas planimétricas y minutas altimétricas disponibles para su descarga en la web del Centro de Descargas del CNIG. 

 La URL del servicio es http://www.ign.es/wms/minutas-cartograficas? y en los próximos meses estará disponible la información cartográfica a través de un servicio teselado, WMTS.

Ejemplo de petición Getmap 

Equipo de la IDEE del CNIG

Blog IDEE: JIIDE 2015: Fecha límite de recepción de resúmenes

Las VI Jornadas Ibéricas de Infraestructuras de Datos Espaciales, JIIDE 15, se celebrarán del 4 al 6 de noviembre en Sevilla. El programa general se puede consultar en la página http://www.jiide.org/web/guest/jiide2015/agenda. Os recordamos  que el próximo 15 de septiembre concluye el plazo para enviar los resúmenes. http://www.jiide.org/web/guest/jiide2015/fechas

Toda la información sobre las Jornadas en: http://www.jiide.org/

Blog IDEE: 87.000 documentos sobre límites municipales a descarga

El Archivo Topográfico del Instituto Geográfico Nacional (IGN) continúa difundiendo información de su fondo documental y poniéndolo a disposición del público en Internet. En esta ocasión son 1.100.000 páginas digitalizadas correspondientes a 87.000 documentos sobre la división administrativa municipal española, que se realizaron a partir del siglo XIX.

Los documentos están clasificados en tres tipos: Actas de deslinde, Cuadernos de campo y Reseñas de coordenadas.

Las Actas de deslindes son los documentos legales y descriptivos en los que los ayuntamientos aprueban y dan conformidad o no, a los límites municipales expuestos. El número de documentos de este tipo es de 36.000.
Imagen de un acta línea límite municipal
Los Cuadernos de campo son los documentos en donde los topógrafos dejaban constancia de sus observaciones y mediciones, lo que permite calcular y replantear la geometría de la línea límite. El número de Cuadernos de campo puestos a descarga es de 50.000.

Imagen de cuaderno de campo de línea límite entre Jaén y Villatorres del año 1875.
Para la realización de estos trabajos de medición se utilizaron los instrumentos disponibles en cada época, siendo el más utilizado el instrumento denominado brújula topográfica (en sus diferentes versiones).


En las Reseñas de coordenadas se exponen las coordenadas de los mojones que forman las líneas límite. Normalmente, estas coordenadas se observan con técnicas actuales como el GPS. Actualmente, hay 664 documentos de este tipo, número que se va incrementando debido a los trabajos que se realizan de manera continua.

Imagen de Reseña de Coordenadas de Piélagos y Castañeda en Cantabria del año 2014.
Los documentos están disponibles  en el Centro de Descarga como Equipamiento Básico de Referencia, donde se puede acceder los documentos en formato pdf, o visualizar parte de la información descriptiva de cada uno de los documentos en formato html. Además, para facilitar la interpretación de los datos existente de cada municipio se puede visualizar un resumen detallado de cada uno de los documentos (Actas, Cuadernos y Reseñas) que componen el municipio buscado.   

Imagen del fichero HTML correspondiente al resumen de documentos del municipio de Milmarcos (Guadalajara)
En  algunos casos,  esta documentación puede no ser la que determine los límites municipales oficiales vigentes inscritos en el Registro Central de Cartografía. La información actualizada sobre cada línea límite municipal está contenida en su correspondiente Hoja Registral (más información en http://www.ign.es/ign/layoutIn/regcartoDelimiTerritoriales.do). 

La posibilidad de consultar y descargar estos documentos en el Centro de Descargas es un hito importante en el acceso de los ciudadanos a la información antigua conservada en el IGN. De esta manera, el Servicio de Documentación Geográfica pone a disposición del ciudadanos la información más relevante y solicitada por los ciudadanos.

Publicado por Francisco J.Dávila
Jefe de Servicio de Documentación Geográfica y Biblioteca

Γεωπληροφοριακά Νέα: Εκπαιδευτική ημερίδα στη χρήση της νέας έκδοσης του geodata.gov.gr

opendatagovnew

Από mail της Ομάδας Διαχείρισης του geodata.gov.gr:

Καλησπέρα σας,

Βρισκόμαστε λίγες μέρες πριν από τη διάθεση στο κοινό του νέου
geodata.gov.gr που θα αποτελέσει τον πλέον σύγχρονο κατάλογο ανοικτών
γεωχωρικών δεδομένων στον κόσμο.

Η νέα του έκδοση θα διαθέτει ριζικά νέα εμφάνιση και λειτουργικότητα, και
θα προσφέρει σημαντικά καλύτερες υπηρεσίες για τους πολίτες και τους
επαγγελματίες. Κυριότερα όμως, θα κάνει εξαιρετικά ευκολότερη, ταχύτερη και
απλούστερη τη διάθεση ανοικτών δεδομένων.

Με σκοπό τη εξοικείωση σας με το νέο geodata.gov.gr, την εκμάθηση των νέων
χαρακτηριστικών του και του τρόπου του δημοσίευσης δεδομένων, σας
προσκαλούμε στην ειδική εκπαιδευτική ημερίδα  που θα λάβει χώρα την *Πέμπτη
10 Σεπτεμβρίου 2015* στον πολυχώρο *INNOVATHENS* στην Τεχνόπολη του Δήμου
Αθηναίων. Για την καλύτερη συμμετοχή σας είναι επιθυμητό να φέρετε μαζί σας
και τον φορητό υπολογιστή σας.

Η ημερίδα θα διεξαχθεί στο πλαίσιο του έργου «Μονάδες Αριστείας ΕΛ/ΛΑΚ» (
http://ma.ellak.gr) το οποίο είχε σαν στόχο τη διεύρυνση της ελληνικής
ΕΛ/ΛΑΚ κοινότητας και το συντονισμό της για την συνεργατική ανάπτυξη και
ελληνοποίηση ελεύθερου λογισμικού από το οποίο ωφελήθηκε και το νέο
geodata.gov.gr. Στην ημερίδα θα παρουσιαστούν επίσης τα έργα “PublicaMundi”
(http://publicamundi.eu/) και “OpenDataMonitor” (
http://project.opendatamonitor.eu/) αντικείμενο των οποίων ήταν η ανάπτυξη
των σχετικών τεχνολογιών.

Περισσότερες πληροφορίες αλλά και την ατζέντα της ημερίδας μπορείτε να
βρείτε εδώ:
http://www.imis.athena-innovation.gr/el/announcements/announcement/232

Σας παρακαλούμε να προωθήσετε το μήνυμα αυτό σε όποιον πιστεύετε πως τον
ενδιαφέρει.

Blog IDEE: Cursos online de especialización de PostGIS e IDE-Web Mapping de CartoSiG UPV

Queda abierto el periodo de matriculación del curso académico 2015-2016 de los cursos online de CartoSiG UPV sobre Bases de datos espaciales: PostGIS 2 e Infraestructuras de datos espaciales y Geoportales (Web Mapping)de la Universidad Politécnica de Valencia (UPV):

- Modalidad: online
- Comienzo: desde 21 de septiembre de 2015 hasta mayo 2016
- Duración: 95-105 horas de trabajo real a realizar en 90 días.
- Certificación: Certificado oficial de aprovechamiento de la UPV
- Precio: 295 euros.

Los cursos han sido diseñados y serán impartidos por José Carlos Martínez LLario, profesor titular de la Universidad Politécnica de Valencia  (Grado de Ingeniería Geomática y Máster en Ingeniería Geomática de la ETSIGCT).

Podéis consultar los temarios detallados, indicios de calidad, opiniones de alumnos de otras  ediciones, etc. para haceros una idea de la profundidad del temario y de la buena relación calidad/precio de estos cursos desde http://cartosig.upv.es/cursos

Apúntate a la lista de avisos de cursos online CartoSiG UPV aquí

Publicado por José Carlos Martínez Llario

Landkartenblog: Reiseinformation für Deutschland (Für Amerikaner Interessant - Für Deutsche witzig)


Geofumadas: 6 aspectos a considerar en la Integración Registro – Catastro

Hacer que el Catastro y el Registro de la Propiedad Inmueble trabajen de manera conjunta es actualmente uno de los retos más interesantes de los procesos de modernización de los sistemas de derechos de propiedad.

La problemática suele ser la misma, inclusive yendo más allá de nuestro contexto hispano.  Por una parte el idealismo de creer que es tan fácil, luego el pesimismo de las cuaternarias estructuras institucionales.  Al final, quien pierde es el ciudadano que lo único que quiere es que su transacción se realice rápida y segura.

Lo cierto es que para esto no existe una receta mágica, pues aunque es un asunto de sentido común, la práctica nos demuestra que este es el sentido menos común entre los que participan en la cadena del proceso de una transacción.

Los humanos somos cortos de memoria luego que un botón está fallando, y es una pena que la gloria del éxito ocupe poetas antes que sistematizadores para contarse con estilo, sin vanagloria pero como simple cultura de democratización del conocimiento. 

Seguro otros lo han hecho con menos equivocaciones, pero aquí retrato algunos aspectos básicos de como lo hicimos en un país de Centro América, con algunos referentes a las declaraciones de Catastro 2014, del que surgió el estándar ISO 19152.

1.  La definición y construcción del Sistema es vertebral.

Lo meritorio del sistema ya no es extraño, puesto que vivimos una época de avance tecnológico y reingeniería dentro de lo obvio.  Por supuesto no estamos hablando solamente de la herramienta, sino el entorno completo que incluye la definición del negocio, los actores vinculados, el respaldo jurídico, la modelación de métodos técnicos, el levantamiento de procesos, la simplificación de aquellos que están relacionados con la gestión territorial y el ciclo de vida de la herramienta tecnológica.

Sin una correcta definición del modelo de negocio, casi cualquier sistema fracasa.  Porque la herramienta solo es el medio.

En nuestro caso de estudio, el flujo se realizó de la siguiente manera, aclarando que no son pasos secuenciales sino casi en paralelo, que en su mayoría se realizaron en un tiempo de dos años:

  • Se desarrolló una plataforma que estuviera lista para Registros, tanto Propiedad inmueble como Catastro, visto como otro registro. Este es el Sistema Unificado de Registros (SURE), que después de 11 años, continúa operando, luego de cuatro transiciones gubernamentales –inlcuido un golpe de estado-, rotación de recurso humano calificado, decisiones arbitrarias y todo a lo que estamos acostumbrados los países en vías de desarrollo.  Se pilotó en una Circunscripción Registral con un área de 160,000 parcelas, actualmente opera en 16 de las 24 circunscripciones y la principal razón por la que no se eliminó en un antojo político fue porque era la herramienta de trabajo de los usuarios en Registro y en Catastrodesde que se creó-.
  • En el diseño de este Sistema se levantaron los procesos de Registro y Catastro en primera instancia, y de forma temeraria los que podrían venir en la nueva legislación.
  • El modelo de dominio para Catastro fue el Core Cadastre Domain Model CCDM, que en 2003 era apenas era un abstracto posterior a Catastro 2014 que, literalmente era un poema.  Quizá esta fue una de las razones por la que el Sistema logró premiaciones y una opinión muy favorable en un Workshop de la FIG en Checoslovaquia.

catastro registro ladm

El gráfico anterior muestra la conformación de Folio Real en Sistema Unificado de Registros, con la inclusión de Transacciones que es una debilidad no modelada en ISO 19152.  en su tiempo no tenía esos nombres, pues el CCDM apenas era una propuesta; pero sí la lógica.

El CCDM hoy es el ISO 19152, conocido como LADM.

Si bien la herramienta tecnológica es lo más visible al momento de mostrar resultados, esto conllevó un análisis y sistematización de procesos existentes que tiene su propia historia.  Compleja, porque la aplicación de procedimientos difiere entre uno y otro registrador; también porque a la hora de realizar una automatización, lo que no funciona en papel no funcionará en sistema mecanizado. Y sin demeritar, que en algunos contextos, es preferible ser dictador que conciliador; cuentan algunos que literalmente se les obligó a hacer cambios con una batería de cambios no fácil de digerir.

  • También fue necesario hacer un gran trabajo legislativo en el que era más fácil crear una nueva ley que reformar la existente.  El Registro dependía de la Corte Superema de Justicia, el Catastro de una Secretaría de la Presidencia y el Instituto Geográfico Nacional de una Secretaría de Obras Públicas.  Fue necesario crear nuevos mecanismos para la regularización, para poner un simple ejemplo, la expropiación en zonas urbanas donde hay conflicto de antecedentes y donde la gente está pagando a diferentes dueños.  La ley permitió expropiar a nombre del estado, a fin de crear un fideicomiso a donde la gente continuó pagando, recibió su título de propiedad y los dueños anteriores se fueron a los juzgados a pelear su asunto.  Una vez resuelto, el dinero del fideicomiso será de quien ganó el juicio.
  • Si bien dos años no ajustaron para hacer todas las cosas, cuando llegó el nuevo gobierno era imposible retroceder.  Las herramientas se mecanizaron para que fuera casi imposible hacer el trabajo sin usar el sistema.

2.  El cambio de técnica registral Folio Personal a Folio Real

Sobre esto hay libros enteros, confusiones y perversiones dependiendo de quien defiende su postura.  En el caso de estudio, la técnica de Folio Real ya existía en ley pero no se aplicaba como tal, por lo que la decisión principal fue que de forma gradual se dejara de usar Folio Personal.

Como cultura general, la diferencia entre ambas técnica radica en la forma de archivar los documentos que respaldan los derechos sobre la propiedad. 

La técnica de Folio Personal, mantiene el índice sobre los titulares, no sobre el objeto, con lo que el identificador del asiento obedece a una transacción.  Si bien es muy cuestionado, el patrimonio que nuestros padres heredaron de nuestros abuelos le deben a esta técnica la garantía jurídica, no porque fuera la mejor, sino porque bien aplicada por personas acostumbradas a hacer las cosas en orden, funcionaba muy bien siguiendo los pasos lógicos de la presentación, anotación en el tomo diario, marginación, control de distribución, confrontación y calificación.  Las dificultades se daban en el hecho que para trabajar una presentación era necesario consultar antecedentes en otros tomos, con lo que un volumen alto de transacciones diarias volvía sumamente lento el tiempo de respuesta; sin olvidar que el saldo registral era imposible de controlar en casos que no implicaban individualización total, el control de homónimos era una locura y casos como urbanizaciones no individualizadas, proindivisos y comunidad de bienes ocupaban un poco más que Fe Pública.  También se debe aclarar, que Folio real no obedece a procesos más modernos; ambas técnicas mal aplicadas conducen a errores iguales.  De nuevo: si no funciona en papel, no funciona en el sistema mecanizado, si no funcionaba en el sistema anterior, casi es seguro que no funcionará en el nuevo.

catastro registro ladm

La técnica de Folio Real, a diferencia, indexa los inmuebles bajo matrículas de identificador único, en las que se refieren los gravámenes, titulares, mejoras, colindantes, y demás características del inmueble.  Esto se hace de manera extractada, remitiendo a folios, contrario a Folio Personal donde se transcribía tal como estaba el documento y el tracto está en la marginación.  En el estándar ISO 19152, el inmueble es la Unidad Administrativa (BA_unit), pudiendo operarse en Folio Personal o en Folio Real.  Por supuesto, un inmueble en Folio Real es casi el equivalente a una parcela de catastro y se facilitará el proceso de vinculación.

3.  La estandarización de los procesos de Catastro.

La etapa de modernización de Catastro no fue necesariamente grata, especialmente porque se generó un conflicto entre los técnicos de la vieja guardia que tenían bastante conocimiento aprovechable con los nuevos que sabían de tecnología pero desconocían muchos fundamentos jurídicos del catastro.  Bien o mal, nos especializamos en errores y la ganancia fue mucho mayor.

Un problema de Catastro es que espera mantenerse como una isla especializada que se desactualiza con mucha facilidad, por no estar integrado al proceso transaccional.  Quién no quisiera que el tapiz del catastro se respetara para todas las operaciones de venta, traspaso, avalúo, planeamiento de uso y trámites en el marco de los nuevos roles.

catastro registro ladm

Fue necesario hacer cambios y documentar, porque para ser honestos muchas cosas estaban dichas por los alienígenas ancestrales pero no estaban documentadas.  Seguro que estos son aspectos superados por muchos países, pero solo lo relato para ser honesto en nuestro caso de estudio, donde el Catastro todavía es un reto complejo.  Entre los aspectos que mejor recuerdo:

  • El levantamiento de la topología continua; de las parcelas y de los bienes de uso público como calles, ríos, lagunas, etc.  A los primeros se les asignó una clave catastral con su respectiva ficha catastral, a los bienes de uso público también una clave catastral con su folio administrativo.  Esto es necesario, puesto que los asientos de propiedad, al irse demembrando requieren la existencia íntegra de áreas de entrada y áreas de salida; así como para control de futuras invasiones a los bienes públicos registrados.
  • Catastro 2014: El Catastro 2014 indicará la situación legal completa del territorio, incluyendo el derecho público y las restricciones.
  • Separación de datos por especialización legislativa.  Los mapas antes de la modernización eran verdaderas obras de arte, en ellos además de las parcelas estaban los sitios de naturaleza jurídica, áreas protegidas, puntos de interés geográfico, zonas de riesgo, etc.  Estos se separaron a mapas independientes, haciendo que los mapas parcelarios se vieran bastante simplones, pero en busca de facilitar la digitalización y automatización de los procesos topológicos.
  • Esto también generó algo de conflicto, pues el Catastro era como el hacedor de todo.  Aunque era totalmente incapaz de oficializar sus roles, en los que ya existían instituciones responsables dentro de sus ramas.  Unificar el Instituto Geográfico Nacional con el Catastro Nacional tampoco fue un paso sabio, no porque no se pueda, sino porque el ambiente no estaba maduro para llevar al IGN a un rol de ente normador de la cartografía; en aquellos tiempos el concepto de IDE era tan abstracto que parecía estar quitándole facultades al “gran hacedor de mapas“.

Catastro 2014: El Catastro manual será cosa del pasado.

  • Se separó los flujos de levantamiento de los de actualización.  Por barrido se levantaban las parcelas y las fichas, para una vez digitalizadas se aplicaran de forma mecanizada la vinculación ficha-mapa y posteriormente la creación de Geoparcela (Spatial_unit) + aplicación de afectaciones jurídicas y administrativas (Restrictios + Responsabilities + Rights). 

catastro registro ladm

El gráfico es muy particular para los procesos masivos.  No incluye el otro extremo de la operación, sin embargo más o menos resume la lógica de conformación de Folio Real con su vinculación a las parcelas de Catastro.

  • Una vez creada la vinculación Ficha-Mapa, se esperaba la Vista Pública, luego de la cual se trasladaba la ficha de campo a ficha catastral para que toda modificación se realizara vía solicitud de mantenimiento catastral.  Este se dejó en la condición de poder ser realizada a solicitud de interesado, de oficio o por solicitud de usuarios registrados (agrimensores o técnicos municipales).  Justo ahora el proceso tiene ya un fideicomiso conformado, con bases listas para la delegación a un operador privado que no solo operará el Catastro sino también el Registro y la actualización del Sistema.

El Catastro 2014 estará altamente privatizado. El sector público y el sector privado trabajarán en conjunto.

El gráfico forense, hoy adaptado a acrónimos de LADM muestra como se habían conformado los procesos bajo un enfoque sistémico, a fin de que los pasos iniciales solo fueran de modelado, pero que se pudieran automatizar bajo un enfoque de operación continua.

catastro registro ladm

Catastro 2014: La cartografía catastral será parte del pasado. ¡Larga vida a la modelización!.

Como lo habrán ya notado, estoy siendo simplista y breve por las limitaciones de la paciencia de lectores en Internet.  Pero muchas de las cosas que hicimos fueron erradas. Irónico, pero una de los aspectos que se dejó por fuera fue el asunto fiscal, pensando en la tal separación legislativa, priorizando en demasía sobre el jurídico.  Aunque la competencia normativa en lo fiscal quedó en manos de nadie, lo continuamos con los municipios desde su legislación, para evitar que se distorsionaran los métodos que ya el Catastro había modelado.  Claro, esto hizo que los sistemas municipales por su lado construyeran sus propios módulos de catastro que hasta el día de hoy ha costado conciliar. 

El sufrimiento por no incluir lo fiscal todavía duele en el aspecto económico; principio básico de la sostenibilidad tecnológica: Si no produce dinero, morirá.  Hoy que se está trasfiriendo a un Operador, las estadísticas simples de consulta diaria hacen ver que pudo empezar a generar mucho más dinero hace tiempo, pero al menos se ganó la conformación de la demanda.

Vincular Registro de la Propiedad con Catastro es el paso más fácil para hacerlo sostenible… claro, si fuera fácil.  Pero es mejor que querer hacerlo sostenible por sí solo.

El Catastro 2014 procederá a recuperar los costos.

4.  La vinculación Matrícula registral – Parcela Catastral.

Mecanizados los procesos como una maquila, el flujo de Registro era bastante simple:

Escaneo, limpieza e indexado de tomos, con el fin de obtener como producto el libro en digital, con el tracto implícito en la mecanización y así evitar que se siguieran creando libros.  Excepto para Poderes/Sentencias y otros asuntos que siguieron operando en Folio Personal.

  • Extractado de asientos activos y creación de matrículas.  Con esto, se tenía una especie de “folio digital o folio real en formación”, que en sí es un folio real (por la técnica aplicada), pero de acuerdo a las aspiraciones particulares de la ley Hondureña, y la robustez del sistema, un Folio Real debe estar vinculado a Catastro.

catastro registro ladm

Por parte de Catastro, el levantamiento masivo llevaba a gabinete mapas impresos con delineación foto-interpretada o ficheros de estación total y, fichas de campo.  En gabinete se digitalizaba, vinculaba y creaba geoparcela utilizando herramientas mecanizadas en aquel momento con VBA para Microstation Geographics.  En el gráfico aparece un paso posterior que en realidad fue solo una evolución de tecnología pues en 2003 el cartucho espacial no se implementó, sino que los mapas estaban vinculados por su centroide bajo esquema arco-nodo, sin embargo todo el proceso de actualización era transaccional.  Posteriormente se hizo migración a base de datos espacial y la gestión de escritorio con Bentley Map.  Actualmente en desarrollo un plugin para Qgis.

Catastro 2014: La separación entre mapas y registros será abolida.

Una vez existentes los insumos BA_Unit (Matrícula en Folio Real) y Spatial_Unit, otro proceso en maquila hizo el trabajo de vincular.  Hacían revisión desde la ficha catastral, donde se había levantado el referente de Folio Personal, comparaban aspectos de ubicación, titulares, área, antecedente y otras hierbas para crear la vinculación.

La imagen siguiente muestra la realidad jurídica vinculada a la realidad física.  Pese que es un ejemplo de zona urbanizada, el proceso no es tan sencillo por diversas razones.  En el mejor de los casos se logró vincular hasta un 51% (Promedio Urbano y Rural), la vinculación restante se hará a demanda transaccional y mediante los procesos de titulación cuya meta en este país es… particular.

catastro registro ladm

El Sistema Unificado de Registros, una vez creada la vinculación muestra las dos realidades, con alertas de posible irregularidad.  De modo que una matrícula sin vinculación a Catastro solo muestra la gran alerta de “No estar georeferenicado de acuerdo a ley“.  También las afectaciones que restringen el uso, dominio u ocupación de los predios, aunque estos dos temas son una asignatura pendiente… para otro artículo, porque la debilidad institucional es un tema que no siempre entendemos los tecnólogos.

catastro registro ladm

Para el proceso de vinculación fue necesario –algo tardío admito– definir criterios de alerta automatizada o mecanismo de mantenimiento, tal que no se impidiera la vinculación por 18 aspectos irregulares, entre los que figuraban:

  • Relación uno a muchos entre parcelas y matrículas,
  • Diferencia de derechos por documentos de transmisión extra-registral,
  • Diferencia de áreas por aparente invasión del área pública,
  • Diferencias por mutación en Registro o Catastro posterior al barrido catastral,
  • Antecedente no extractado,
  • Propiedad horizontal,
  • Inmueble proindiviso,
  • Diferencia de nombres de titulares o duplicidad de titulares,
  • etc, etc, etc.

Para esto, se aplicó una técnica muy utilizada para la sostenibilidad de tecnologías: Asignárselo a quien más le duele.  El usuario al ver alertas, busca como resolverlas; total, es uno de los principios de Registro: la publicidad.

Todo estaba muy bien, hasta que se vincula a Catastro.

5.  Los datos de Catastro y Registro nunca serán iguales.

El paso de vinculación por algún tiempo “políticamente atribuible” se dejó de hacer y hasta la fecha es uno de los retos complejos en la obligatoriedad de la ley, que toda presentación debe exigir la vinculación al Registro Catastral.  Este aspecto es algo complejo, tanto por ser demasiado permisivos pero también por ser tan exigentes como el Papa.  A continuación algunos lineamientos, que en su mayoría son procesos a normalizar.

  • El área de Catastro y Registro nunca será igual.  Para ello, se usó una fórmula de tolerancia, que considera el método de medición,  la condición urbano/rural en función de su tamaño, en este caso la escala máxima usada en levantamientos anteriores, tal como se muestra en la siguiente imagen. Como tolerancia máxima se consideró 6% y como ven, usando una fórmula como esta, el área desciende de 6% a 1% en la medida que el tamaño del predio crece.

catastro registro ladm

La fórmula se insertó como un procedimiento almacenado en la base de datos, tal que se muestre en el sistema de forma dinámica.  Si el área documental no está dentro de ese rango, entonces el sistema levanta una alerta por diferencia de área.

  • No es igual un registro catastral que un registro topográfico.  Si el predio lo voy a medir cinco veces, sus coordenadas saldrán diferentes cada vez (dentro de un margen de tolerancia).  Lo que significa, que si sus coordenadas están dentro de ese margen, no es necesario cambiar el predio catastral; para eso el LADM considera el registro de mensuras, Survey_classes como una relación entre el Source_document y la Spatial_unit.
  • No es posible insistir que los colindantes del protocolo notarial deben figurar como nombres de personas; si bien el principio dice que debe ser explícito, lo entendemos que es cuando se debe recurrir a consultar un mapa, pero si el visor del mapa es tan claro que no ocupa especialidad, entonces, los colindantes pueden ser las claves catastrales.  Parece sencillo, pero hacer entender a los abogados toma tiempo; lo que esperamos se resuelva con la minuta registral.
  • No es posible echar a andar un proceso, sin que esté bien normada la certificación de profesionales de mensura, métodos de medición, tolerancias, formatos de presentación de ficheros y procedimientos de convivencia entre los datos levantados con diferentes precisiones.  Si al medir un predio se evidencia la necesidad de remedir toda una zona, porque está mal levantada o por la diferencia de método, para eso el LADM considera el Point_parcel, con lo que se puede evitar el el juicio de Armagedón –que actualmente se avecina-.
  • El antecedente jurídico es un referentes, no es infalible.  Fue necesario dejar en la ley, que el levantamiento catastral se hará en base a la situación física, y si en caso que hay diferencia entre el área documental y el área catastral, y no han cambiado la situación de colindancias, ni hay evidencia de pretensiones, ni se colinda con áreas públicas, prevalecerá el área catastral.  Qué fácil suena, pero enforzar que las escrituras existentes se deben cambiar, es otro cuento; puesto que por ley debo reconocer el derecho inscrito y no puedo declarar irregular lo que acepté bajo términos anteriores, solo porque mis parámetros cambiaron.
  • Es necesario definir métodos de depuración de la información que faciliten el establecimiento de la regularidad de la información.  Si una persona jurídica es el Banco Davivienda, pero en los protocolos notariales aparecen con nombres diferentes para cada sucursal, se requiere un procedimiento de consolidación.  De igual manera, si un inmueble se levantó por diferentes vías, pero es el mismo, no ocupa una fusión de predios sino una consolidación.  Pero ambos aspectos deben ser legales.
  • Los retos más grandes siempre será el recurso humano, en este sector por lo general resistente al cambio y chapado a que las cosas se deben hacer solo de una manera.  No queda otra que reinventarse y dejar salvaguardas.  La rotación por fines políticos puede hasta ser provechosa, aunque hay que estar prevenido que será la mayor amenaza.  En la medida que se pueda aprovechar el asidero jurídico, tercerizar es un pecado venial, siempre y cuando esté libre intereses particulares más complejos.

6. Por último:

Como dije al inicio, el objeto de este artículo no busca lanzar recetas mágicas.  Especialmente porque la realidad institucional en cada país es sumamente compleja, no por aspectos técnicos o legales, sino más bien por posiciones de poder y falta de visión de sus autoridades.  Sin embargo, el ejemplo muestra que es posible hacer cosas interesantes en países de tercer mundo, si se aprovechan momentos de gloria para atar los aspectos irreversibles.  Otros países lo han logrado con menos locuras, otros teniendo mejores condiciones institucionales batallan por la real integración. 

El registro de la propiedad se basa en el sentido común.  Las transacciones de derecho de propiedad existen desde que el hombre descubrió la agricultura, y se dio cuenta que podía crear asentamientos humanos.

catastro registro ladm

La gráfica muestra un pasaje de nuestra literatura religiosa, donde se usan términos que parecieran sacados de un intercambio de jurisprudencia registral, con viáticos pagados al pasado, en monedas de metal precioso cuantificadas en balanza –qué gran idea para cualquier funcionario de hoy-.  Nadie dudaba de la certidumbre del predio ni del valor del derecho inscrito en el “Traslado abierto“.  Claro que si hubiéramos querido vincular el catastro y el registro en esa fecha, tendríamos la misma problemática, e igual trabajo de consultoría para fumadores de hierbas como nosotros.

En el caso de Honduras, actualmente en miras de la nueva versión del Sistema, los procesos modelados son casi tan importantes como los aspectos no alcanzados, porque el negocio es el mismo, el entorno mutará en lo mínimo, los procesos sí cambiarán.  En el mundo de innovación tecnológica que vivimos, entre el momento que comencé a escribir el artículo y la fecha que por casualidad llegaron ustedes a leerlo, hay un nuevo boom de tecnologías ofreciendo resolver el problema de Registro-Catastro, y tres nuevos consultores ofreciendo sus servicios.  Debemos recordar que las tecnologías solo son un insumo; el equilibrio entre la presión entre la oferta tecnológica y la demanda de modernización es el estándar.

Integrar el Registro y el Catastro es un capítulo que hay que empezar.  Si solo se teoriza, y nunca se arranca, será ciencia ficción.  Bien o mal, una vez que se inicia, ocupa más arte que ciencia para llevarlo a la realidad.  Pero es tan bondadoso el proceso, que apenas ocupa un par de personas que tengan el horizonte claro, porque la solución a todos los casos está en el recurso humano existente, que son especialistas en sus propias materias:  Registro, Catastro, Ordenamiento Territorial, automatización, sistematización y… algo de marihuana inspiracional. :)

Vienen nuevos retos.  La otra mitad del artículo, está a la vuelta de la esquina.

La entrada 6 aspectos a considerar en la Integración Registro – Catastro aparece primero en Geofumadas.

Landkartenblog: Weltkarte des Rassismus - In Nord- und Südamerika fast unbekannt aber in Afrika, Europa und Südasien ein größeres Problem. Vor allen in Indien!

Die Washington Post veröffentlichte im Mai eine Weltkarte des Rassismus. Ein Forscher besuchte 80 Länder und befragte die Menschen, wen sie nicht als Nachbarn hätten.

Vor allen in Indien, Bangladesch und Jordanien wollten über 40% der Menschen keinen Nachbarn mit einer anderen Herkunft. Viele Menschen aus muslimische Länder sehen das genauso. In der Regel wollen immer über 20% der Menschen dies. In Russland und China sind es dagegen um die 15 bis 20%. In Deutschland und der Schweiz sind es dagegen vernachlässige 5 bis 10%. Besonders in Nord- und Südamerika sowie in Australien und Neuseeland haben die Menschen diese Sorge gar nicht.



Landkartenblog: Asylländer 2015 - Deutschland, Ungarn beherbergen die meisten Flüchtlinge - Großbritannien, Spanien, Frankreich, Italien, Polen und Schweden blamieren Europa

Was für eine Schieflage in Europa. Auf dieser Landkarte sehen sie welches Land wie viele Flüchtlinge aufgenommen hat. Deutschland ist dabei mit Abstand der Vorreiter vor allen anderen Ländern. Das kleine Ungarn, was durchaus mit rechtsradikaler Politik bekannt wurde, ist dabei das zweit häufigste Land für Flüchtlinge aus aller Welt.

Dagegen blamieren sich Länder wie Großbritannien (weniger als 1% von dem was Deutschland aufgenommen hat), Irland, Spanien, Portugal, Rumänien, Slowakei, Tschechien, Polen, Litauen, Estland, Lettland, Finnland und Schweden. Das ist wirklich unfassbar, wenn man sich die Statistik anschaut.




Viele Länder interessieren sich nicht Syrern, Iraker, Afghanen und Menschen aus Eritrea eine Notunterkunft zu geben. Sie haben Angst, dass diese Menschen ihnen was weg nehmen. Dabei haben einige Länder, wie Großbritannien von so manchen Krieg in den jeweiligen Ländern profitiert.

Γεωπληροφοριακά Νέα: Ο Jack και ο John (χωρίς τον Jack) στη TV100: Το video που δε θέλανε να δείτε!

Γιατί δε κάνουμε αυτοδιαφήμιση είπαμε. Σεμνά, ταπεινά, κλπ.

Τους αγνόησα.

‘Ετσι λοιπόν και μετά την μεγάλη ανταπόκριση του προηγούμενου άρθρου για τη βράβευση της ΕΥΑΘ στο Διεθνές Συνέδριο της ESRI, η συνέχεια. Η συνέντευξη του προϊσταμένου του τμήματος GIS της ΕΥΑΘ (μου διαφεύγει το όνομα του αυτή τη στιγμή) στη εκπομπή «Άκου να δεις» στη TV100.


GeoRezo.net - Géoblog: [INSPIRE by clouds] Les quatre types de listes de code dans INSPIRE

PascalF s'interroge sur les listes de code,

le type d'"extensibility", "narrower" m'est aussi incompréhensible : La liste de codes ne peut être étendue qu'avec des codes spécifiques: les codes autorisés sont les codes existants et de nouveaux codes spécifiques définis par des fournisseurs de données.



Prenons le règlement 1089/2010 en français : "«valeur spécifique» (narrower value): une valeur ayant un rapport hiérarchique avec une valeur mère plus générale". Ce terme vient des sciences de l'information.

Dans ce même règlement, les listes de code peuvent être de quatre types :
a) listes de codes dont les valeurs autorisées comprennent exclusivement les valeurs spécifiées au présent règlement;

b) listes de codes dont les valeurs autorisées comprennent les valeurs spécifiées au présent règlement et des valeurs spécifiques définies par les fournisseurs de données;
=> chaque producteur peut donc étendre la liste de code obligatoire avec des valeurs plus précises, filles d'un des codes obligatoires.

c) listes de codes dont les valeurs autorisées comprennent les valeurs spécifiées au présent règlement et des valeurs supplémentaires définies par les fournisseurs de données à quelque niveau que ce soit de
la classification;
=> chaque producteur peut donc étendre la liste de codes obligatoires par des valeurs de même rang ET des valeurs plus précises, filles des codes obligatoires ou ajoutés.

d) listes de codes dont les valeurs autorisées comprennent toutes les valeurs définies par les fournisseurs de données.
=> chaque producteur défini sa liste de code.

Du point de vue règlementaire, chaque producteur est laissé libre des extensions apportées aux trois derniers cas, sans obligation autre que celle de la diffuser dans un registre. Bien entendu, lorsqu'il existe des standards nationaux (CNIG ou COVADIS, par exemple), il est recommandé voire obligatoire de les reprendre, mais on peut toujours les étendre.

Attention, l'obligation de publier alors des registres avec les codes ajoutés s'applique, ce qui n'est pas si simple.

Γεωπληροφοριακά Νέα: Ο Jack και ο John: Η ΕΥΑΘ βραβεύεται με το Special Achievement in GIS Award στο παγκόσμιο συνέδριο της ESRI

Jack and John (κατά κόσμον Γιάννης)

Jack and John (κατά κόσμον Γιάννης)

Επειδή μπορούν και υπάρχουν ακόμα πράγματα που μας κάνουν περήφανους. Επειδή υπάρχουν κάποιοι (αρκετοί ευτυχώς) στην Ελλάδα της κρίσης που δουλεύουν με πάθος και μεράκι. Επειδή κάνουν τη δουλειά τους αποτελεσματικά χωρίς φανφάρες και αυτοδιαφήμιση. Επειδή αναγνωρίζονται διεθνώς.

Για όλα αυτά σας ευχαριστούμε (και σας διαφημίζουμε! ;-)

Τα συγχαρητήρια μας λοιπόν, στο τμήμα GIS της ΕΥΑΘ που βραβεύτηκε με το «Special Achievement in GIS Award» στο παγκόσμιο συνέδριο της ESRI στο San Diego! Στους: Γιάννη Κάβουρα, Χρύσα Κοτσαμποϊδου, Αλεξάνδρα Κυριακίδου και Έφη Ραφαηλίδου

Περισσότερες λεπτομέρειες στην ιστοσελίδα του συνεδρίου


Geofumadas: Abrir archivos shp con Google Earth

La versión de Google Earth Pro dejó de ser pagada ya hace mucho tiempo, con la que es posible abrir diferentes ficheros GIS y Raster directo desde la aplicación.  Entendemos que hay diferentes formas de enviar un fichero SHP a Google Earth, bien desde software privativo como BentleyMap o AutoCAD Civil3D, o de código abierto como Qgis o gvSIG; en ambos aspectos es necesario una transformación a KML. 

En este artículo explicamos cómo hacerlo con Google Earth Pro:

Cómo descargar Google Earth Pro

Cuando la gente busca “Descargar Google Earth“, nunca aparece la opción de Pro, maldad de Google o falta de un simple botón para decirnos que ya no es pagado.

Este es el enlace para Descargar Google Earth Pro.

Este es el enlace para Descargar Google Earth, versión normal.

Al instalar la versión, nos solicita clave API.  Si nunca se ha abierto una, se puede colocar un correo electrónico y la clave de prueba GEPFREE.  Seleccionando la opción “Prueba gratuita”.

google earth pro

Esto abre Google Earth Pro para operar de forma normal.

 

Qué formatos GIS se pueden ver desde Google Earth Pro

Desde Google Earth, al hacer la opción Archivo > Abrir, o bien Archivo > Importar, nos permite a diferencia de la versión normal que solamente soportaba KML, KMZ y GPX, los siguientes formatos:

  • Listados de puntos .txt .csv
  • Ficheros de MapInfo .tab
  • Archivos de Microstation .dgn
  • Censo de Estados Unidos .rt1
  • Visual Raster .vrt
  • Raster georeferenciadas .tif
  • Formatos de transmisión raster .ntf
  • Imágenes de Erdas .img
  • Bases de datos PCIDSK .pix
  • Raster ILWIS .mpl
  • Formatos de imagen SGI .rgb
  • Modelod de elevación .ter
  • Raster matricial .rsw
  • Raster Idrisi .rst
  • Grids binarios Golden Software .grd
  • Pixmap portable .pnm
  • Raster Vexcel MFF .hdr
  • Modelo de terreno binario .bt
  • Raster digitalizado ARC .gen
  • Grid SAGA binario .sdat

 

google earth pro

Importar ficheros SHP

La gran diferencia de importar ficheros exportados de otro formato a KML o importarlos desde Google Earth Pro, es que aquí pueden venir con una tematización y no como una sola capa de un solo color.  Es necesario que exista el fichero .PRJ, donde está configurada la proyección, adicional al .SHP de los datos vectoriales, .DBF de los datos tabulares y .SHX del indexado. 

Es interesante que no se limita por la cantidad de los datos, cosa que es decepcionante con la herramienta SHAPE2EARTH Engine, aunque tiene una valiosa funcionalidad para tematizar y opciones de atributos.  También hay que admitir que algunos programas GIS tienen algo de problemas para convertir a KML/KMZ con exactitud.

Al importar datos, el sistema pregunta cosas obscenas cosas, como:

Mire amorcito, lo que usted está buscando importar tiene más de 2,500 funciones y podría colapsarle la pudrición de cafetera que usted está usando.

Puede importar solamente lo que está en su vista.

Puede importar todo, bajo su propia testarudez,

O puede cancelar la importación y mejor ir a ver si ya puso huevos la chancha.

google earth pro

Como se puede ver en la siguiente gráfica, se ha importado la capa, tematizada con colores al azar.

google earth pro

Es interesante, que el estilo incluye un html par mostrar los datos tabulares, en este caso de la siguiente manera:

<table border=”0″>

<tr><td><b>IDREGION</b></td><td>$[municipios/IDREGION]</td></tr>

<tr><td><b>TIPOREGION</b></td><td>$[municipios/TIPOREGION]</td></tr>

<tr><td><b>NOMBREREGI</b></td><td>$[municipios/NOMBREREGI]</td></tr>

</table>

google earth pro

 

Descargar Google Earth Pro

La entrada Abrir archivos shp con Google Earth aparece primero en Geofumadas.

Geofumadas: Qgis – Un ejemplo de buenas prácticas en el modelo OpenSource

Cada vez que nos sentamos ante una empresa o institución que desea implementar una plataforma con enfoque de gestión territorial, acostumbrados a escuchar muchas voces negativas respecto a los modelos OpenSource, surge esta pregunta con ligeras variantes.

¿Quién responde por QGIS?

qgis

Nos parece responsable y muy normal, que un tomador de decisiones busque respaldar una acción que tarde o temprano podría ser auditada –por las buenas o por las malas-.

Lo que sucede es que los Modelos OpenSource cuesta justificarlos, en parte porque en la mayoría de casos, los funcionarios en puestos administrativos intentan entender lo que los info-tecnólogos ni siquiera podemos explicar.  Pero también porque prácticas de actores desde el sector privativo intentan causar confusión, haciendo ver que el software libre no es profesional, que no tiene soporte o que tiene un futuro incierto.

Tanto el optimismo ciego como la mala intención son de considerar, teniendo en cuenta que muchas iniciativas de código abierto han quedado en el camino.  También porque una estrategia de migración al código libre no debe venderse como una disminución total de costos sino como una oportunidad para potenciar el conocimiento, que requiere un complemento en capacitación e innovación sistemática que para ser honestos, es todavía más difícil de vender… y cumplir.

El caso de Qgis es un interesante modelo, del que se podrá escribir libros algún día.  No es la primera, ni la única; casos exitosos como WordPress, PostGIS, Wikipedia y OpenStreetMap muestran similitudes entre el altruismo y la oportunidad de negocios aprovechando la colaboración tras democratizar el conocimiento.  Y es que en el fondo, no se pretende coartar las oportunidades del sector privado ni tomar actitudes en contra de las marcas de prestigio que han conformado el mercado; más bien se trata de no limitar las posibilidades de innovación y desarrollo del ser humano a través de las herramientas tecnológicas, de manera responsable.

Pero en definitiva, las mejores prácticas que un Proyecto OpenSource pueda aplicar debe equilibrar entre el diseño funcional, la arquitectura, la imagen corporativa, la gestión de la comunidad y mucho más importante, la sostenibilidad; palabra que no cabe aquí con el mismo tono que usábamos en el sector Cooperación.  Me gusta más la palabra Lucro colectivo.

Quienes respaldan Qgis

Es interesante que la versión de Qgis que será lanzada en el mes de Marzo de 2016, cuenta con las siguientes instituciones:

Patrocinadores de Oro: 

Asia Air Survey, JapónDesde 2012 esta es la institución con más aportes al proyecto Qgis; que en el caso del lejano oriente es responsable de promover el desarrollo de tecnologías de alta calidad para el sector geoespacial.

qgis

Patrocinadores de Plata:

Estos patrocinadores nos muestran tanto el apropiamiento que ha tenido en contexto europeo, como la combinación entre el sector Público, Privado y Academia.  Vea que no son países económicamente pudientes, pero el nivel de tecnificación de los procesos en estas dependencias que patrocinan Qgis son de respetar, al grado de poder justificar dentro de sus inversiones, el soporte para una plataforma que es de toda la comunidad mundial.

También es interesante ver que en estos países no hay extrema pobreza ni necesidad de abaratar costos en materia de software.  De modo que el OpenSource es una tendencia más por la innovación y potenciación del conocimiento colaborativo.

Patrocinadores de Bronce:

Europa

Como se puede apreciar en esta lista, hablamos tanto de empresas sólidamente establecidas, como de emprendimiento reciente.  Aquí nuestro mérito a MappingGIS, la primera empresa del contexto hispanohablante en apuntarse a este patrocinio.

Es importante entender, que mientras existan empresas privadas patrocinando el software libre, tendremos empresas serias brindando soporte, no solo tendremos desarrolladores freelance metidos en garajes, escribiendo código y mezclando cerveza con adrenalina.  Sino más bien profesionales contratados por empresas bajo proyectos específicos, con metas, estándares y garantías de calidad.

Por supuesto que la adrenalina y el olor a ratas de garaje son necesarias, para darle ese sabor de innovación a proyectos de gran envergadura, que por experiencia, sabemos –casi– deben nacer allí.

América

Asia y Oceanía

Los últimos dos listados nos muestran que el campo es todavía virgen en la búsqueda de patrocinadores.  Pero si tienes cuatro instituciones alemanas, una francesa, tres italianas y dos inglesas… seguro no van más allá para no perder el ímpetu.  Queda por explotar medio oriente y Estados Unidos, donde con pinzas es factible encontrar voluntad, así como algunos países de Latinoamérica donde el Proyecto gvSIG ha demostrado que también es posible.

Los orquestadores del proceso.

El software OpenSource requiere visionarios que estén clavados el horizonte, sean estos voluntarios o pagados.  Esto, para que todos los esfuerzos sean coordinados y no recaiga el peso sobre una o dos personas que no son multifacéticas.  Para esto, Qgis tiene un Comité de Dirección del Proyecto que se compone de los siguientes miembros:

  • Gary Sherman (Presidente)
  • Jürgen Fischer (Director de prensa)
  • Anita Graser (Diseño e Interfaz de Usuario)
  • Richard Duivenvoorde (Gerente de Infraestructura)
  • Marco Hugentobler (Gerente de Código)
  • Tim Sutton (Testeo y Aseguramiento de la Calidad)
  • Paolo Cavallini (Finanzas)
  • Otto Dassau (Documentación)

Es interesante, que no son nombres extraños cuando recordamos el Hashtag #qgis en Twitter o los usuarios experimentados en los foros de soporte.  Esto demuestra lo comprometidos que están con el proyecto, dando la cara al estilo de los del contexto anglosajón: sin vanagloria de lo que saben, sin buscar sobresalir, con tarjetas de presentación que ni siquiera tienen el apellido.

qgis

Gracias a este equipo de orquestadores, han logrado un nivel sorprendente de confianza interesante de sistematizar; luego de lo que he conversado con usuarios que de forma voluntaria y profesional se han llegado a involucrar en los equipos de mejora de experiencia para el usuario y documentación.  También es importante aportar, que esta agresividad y organización del proyecto Qgis es reciente; pero vaya que lo han logrado hacer tan bien.  Probé por primera vez esta herramienta en Julio 2009, justo en los días de ocio por culpa del Golpe de Estado de Honduras.  Hoy, me llama la atención la opinión de los usuarios fieles, materializada en satisfacción con la versión actual y tranquilidad que lo que le hace falta está en la lista de deseos que pronto podrá ser complacida.

 

La Comunidad de Usuarios

Indudablemente la vida de un software libre está en la comunidad.  Allí están los usuarios obsesivos que se descargan el build diario, solo por probar qué de novedoso trae, los miedosos que esperan que esté oficialmente testeada, los locos colaboradores que regalan su código a cambio de un porro de marihuana, los que dan consejería gratuita y hasta nosotros los escritores que aprendimos a hacer investigación sistémica en los ratos que no tenemos el látigo en la mano.  Interesante como nunca lo vimos antes, con todas las posibilidades de comunicación que hoy nos ofrece este mundo.

Me gusta la imagen siguiente, porque es el primer certificado catastral que vi hacer a un técnico municipal. Perfecto como debe ser.  Solo con Qgis.  Sin que le diéramos capacitación.

qgis

 

Seguro las buenas prácticas del Proyecto Qgis en materia de patrocinio sostenible, alianzas estratégicas, ruta de tiempo agresiva, creciente comunidad y presencia corporativa podrán ser de utilidad para otros esfuerzos dentro del entorno Crowdfunding. 

La entrada Qgis – Un ejemplo de buenas prácticas en el modelo OpenSource aparece primero en Geofumadas.

GeoRezo.net - Géoblog: [INSPIRE by clouds] Au sujet des guides européens sur les spécifications

PascalF pose ces jours-ci plusieurs questions sur les guides techniques européens :


Je souhaiterai savoir si en ce qui concerne les "guides techniques" permettant de mettre en conformité nos données aux modèles de données inspire (http://inspire.ec.europa.eu/index.cfm/pageid/2/list/2 ), quand est ce qu'ils seront disponible en Français ?


Ce n'est pas envisagé. D'une part, ces éléments s'adressent à un tout petit nombre d'informaticiens qui, de surcroît, sont censés lire l'anglais. La rentabilité de la traduction de ces centaines de pages est considérée comme nulle.
D'autre part, notre priorité est d'établir des standards nationaux, certes compatibles avec INSPIRE mais adaptés à notre situation. Ce sont ceux de la COVADIS, comme celui des infrastructures de communication ou celui, en appel à commentaire, sur les réseaux d'eau.

Je travaille actuellement sur les modèles de données de la thématique "Services d'utilité publique et services publics" et notamment les réseaux d'AEP et je cherche à comprendre le diagramme UML suivant (http://inspire.ec.europa.eu/data-model/approved/r4618-ir/html/index.htm?goto=2:3:20:3:7:8933) pour cela je m'aide du site "docinspire" (http://docinspire.eu/get.php?uri=http://uri.docinspire.eu/eutext/spatialobjecttype/us-net-common:UtilityLinkSet), malgré cela des éléments me manquent.

Ce sont d'excellentes sources! Malheureusement, l'UML est un langage de modélisation et requiert une formation adaptée, ne serait-ce qu'en lisant quelques documents sur internet pour comprendre la symbolique employée.
Par parenthèse (et cela s'adresse aux enseignants plus qu'aux étudiants, bien sûr), j'ai déjà eu l'occasion de dire que la lecture de l'UML devrait faire partie du bagage d'un géomaticien de niveau bac+5 ne serait-ce que pour réfléchir de temps en temps avant de se lancer dans le code à corps perdu.
Pour le cas de l'eau, le plus facile est de partir du projet de standard COVADIS puisque le travail d'adaptation a déjà été réalisé et testé par des autorités publiques.

J'aurai voulu savoir si quelqu'un n'avait pas un exemple en GML correspondant à ce thème et ce diagramme ?

La COVADIS devrait en produire un. A ma connaissance, il n'y a pas de GML existant mais la bonne source sont les schémas XML de la Commission européenne associés aux guides.

Enfin j'aurai voulu savoir comment d'autres collectivités ou structure de services publiques ont abordé cette problématique de mise en conformité, quelle a été votre stratégie ? me conseillez vous de lire les guides techniques en anglais qui font minimum une centaine de page ? ou bien de mettre en conformité mes données aux standards COVADIS et non pas directement aux modèles INSPIRE ?


Pour le moment, les agences nationales de cartographie (l'IGN en France) étudient la mise en oeuvre des spécifications de l'annexe I et rencontrent d'importantes difficultés (voir la présentation de Frédéric Brönnimann lors du webinar du CNIG du 19 juin). Il me paraît prématuré pour une collectivité de s'engager dans cette voie, d'autant que de nombreux États s'interrogent sur la faisabilité d'employer le GML en l'état pour des modèles aussi lourds et réfléchissent à des solutions alternatives. C'est une partie de mon actualité de ce mois d'août, je suis certain que j'aurais l'occasion d'y revenir dans les semaines qui viennent.

En attendant, comme le montrent les précédents articles, entre le partage des catalogues et la mise en place des services en réseau, sans compter les standards de la COVADIS et du CNIG, les autorités publiques ont de quoi s'occuper.

Geofumadas: Comparación y diferencias entre QGIS y ArcGIS

Los amigos de GISGeography.com han realizado un invaluable artículo en el que comparan GQIS con ArcGIS, en nada menos que 27 tópicos.

Es claro que la vida de ambas plataformas es abismal, considerando que los orígenes de QGIS se remontan a 2002, justo cuando salió la última versión estable de ArcView 3x… que ya incluía bastante recorrido.

qgis arcgis

Indudablemente nunca antes vimos madurez y obsesión del tema Geoespacial como el que viven los usuarios de estas dos soluciones.  Por una parte ESRI soportado por una trayectoria privada de una empresa con más de 40 años en el mercado, con el mérito de ser el medio que vino a popularizar la visión espacial desde una óptica de mercadeo y público no especializado; en tanto que QGIS es la iniciativa más provisoria dentro del enfoque GIS, que logró aprovechar todas las potencialidades del modelo OpenSource, orquestando una comunidad que tiene una conducción no solo de voluntariado sino de alto nivel profesional.

 

En general, la comparación nos da luces interesantes en aspectos como:

  • 1.  QGIS tiene un enfoque a abrirse a cualquier tipo de datos.
  • 2.  Ambos buscan simplificar la capa de presentación ante el usuario final, aunque con QGIS no es tan sencillo si consideramos que la riqueza son los plugins.
  • 3.  La exploración de datos entre QGIS Browser y ArcCatalog son interesantes, pero se quedan cortas en tanto dependan de la existencia de metadatos.  Siempre es difícil buscar entre los datos.
  • image4.  Unión de tablas son fuoncionales en ambos, con ligeras ventajas QGSIS.
  • 5.  Reproyectar y cambiar sistema de coordenadas.  Ambos son aceptables en el manejo de proyección nativa y al vuelo, aunque la ganancia ha sido que QGIS finalmente logró leer sin errores una proyección de un fichero .PRJ.
  • 6.  El basto arsenal de datos en línea de ArcGIS Online es una asignatura pendiente para QGIS que con el plugin OpenLayers permite muchas capas de fondo pero no hay mucho más.
  • 7.  El geoproceso lo supera QGIS, pero no porque ArcMap no lo tenga, sino porque depende del tipo de licencia que se disponga, así se podrán usar las diferentes funcionalidades.  Por supuesto, entre tanta herramienta es posible perderse antes de probarlas todas, si consideramos todas las rutinas de geoproceso que tiene GRASS y SAGA, de las que ya quisiéramos tener un solo kit.
      • Claro, esta es una situación que ya no tiene que ver con capacidad del software sino con el modelo de negocio.  Al ser QGIS de licencia GPL, todo está disponible.
    • 8.  El mundo de los plugins es amplio en ambas plataformas.  Aunque QGIS es muy amplio en esto, donde existe plugins para casi cada cosa, lo difícil es lo que ArcGIS Marektplace hace fácil, pues hay soluciones para cada cosa con un enfoque de especialización más fácil de encontrar.  Por supuesto, hay que pagar.
        • qgis arcgisAunque AGIS es una máquina robusta de geoprocesamiento, no tiene toda la variedad de herramientas especializadas de ESRI.
    • 9.  La gestión de datos Raster la supera ArcGIS.  Aunque QGIS+GRASS ofrecen batalla, siempre existe algo en lo que ArcGIS lo hace más fácil; si no por valores agregados, por la dificultad de compatibilidad de plugins respecto a versiones recientes.
    • 10.  Las herramientas de Geoestadística de ArcGIS no se pueden comparar.  No solo son funcionales, sino educativas.
    • 11.  Con datos LiDAR, habría que pensar, pues mientras algunos sugieren que ArcGIS ha pasado la borda, otros dicen que ESRI está pensando en imponer un formato propio sensores remotos.

Sugiero darle una mirada y agregarlo a su colección, pues el artículo más allá de querer defender una herramienta (que sería lo más obvio), compara 27 similitudes en aspectos como :

  • Análisis de Redes
  • Gestión de Flujos de trabajo (Model Builder)
  • Productos cartográficos finales
  • Simbología
  • Anotaciones y rótulos
  • Automatización de mapas continuos
  • Navegación 3D
  • Mapas animados
  • Tematización
  • Edición Avanzadas
  • Limpieza topológica
  • Edición de datos tabulares
  • Coordenadas XY y Codificación
  • Transformación de tipos de geometrías
  • Documentación de soporte

 

En definitiva es un arduo trabajo el que ha llevado a este artículo.  En muchos aspectos seguramente requiere más profundidad, que solo conoce quien ha utilizado todas las funcionalidades de ArcGIS y las tripas de los plugins de QGIS.  Sin embargo, algo es satisfactorio:

Nunca antes vimos una épica batalla en el software GIS como el que ahora estamos viendo.

Para leer el artículo completo, ver el enlace.

De paso, sugiero le den seguimiento a la cuenta @GisGeography, que tendremos que agregar al Top40 Geoespacial de Twitter.

La entrada Comparación y diferencias entre QGIS y ArcGIS aparece primero en Geofumadas.

TANTO: Un’altra tappa del GIM raggiunta

Questo articolo e’ stato pubblicato originariamente su www.big-gim.it.

Tappa del giro

Siamo agli sgoccioli (in molti sensi): le ferie agostane stanno arrivando e forse molti di voi leggeranno questo post al loro rientro.

Un gruppetto di sostenitori del GIM ha portato a termine la preparazione della versione finale della scheda UNINFO per questo nuovo profilo professionale e ha provveduto al suo invio attraverso il form proposto nell’ambito della consultazione pubblica sui “Profili professionali per l’ICT – Parte 3: Profili professionali relativi alle professionalità operanti nel Web” (Inserire il codice progetto E14D00033 all’URL http://bit.ly/1Mb6pT5).

Ringrazio quindi la redazione di TANTO, Lorenzo Perone ed Andrea Borruso in particolare, Monica Sebillo e tutti quelli che hanno lasciato messaggi sulla mailing list per il sostegno di questo lavoro di affinamento del profilo.

E’ possibile prendere visione del risultato qui. Per la pubblicazione sul web abbiamo utilizzato Crocodoc (ancora un grazie ad Andrea Borruso per la segnalazione). Per chi non conoscesse questa applicazione, tra le varie funzionalità, essa permette di lasciare commenti… Questo mi dà lo spunto per sollecitarne l’invio, anche considerando che potrebbero essere utili in una possibile fase di ulteriore affinamento del profilo.

Questa versione del profilo GIM si differenzia dalla precedente soprattutto perché fa riferimento non più specificatamente all’applicazione di questa figura nell’ambito delle comunità intelligenti, bensì ad una generica organizzazione. La modifica (chi segue questa iniziativa da più tempo ricorderà) è stata suggerita da Antonio Rotundo e discussa in occasione dell’incontro pubblico, svoltosi il 18 giugno scorso presso la Link Campus University di Roma, alla presenza dell’Agenzia per l’Italia Digitale. La scelta tiene conto di un possibile più ampio spettro di possibilità di impiego di tale skill e, inoltre, uniforma questa figura a quelle già predisposte dal gruppo di lavoro UNINFO.

Ciò non esclude, anzi è previsto, che una versione dedicata alle smart communities possa essere preparata: essa assumerebbe anche maggiore rilevanza se derivasse da una figura riconosciuta, come speriamo, da UNINFO.

Infatti, l’idea originale del GIM è maturata immaginando il contesto delle comunità intelligenti, soprattutto facendo riferimento a ciò che queste rappresenteranno nel prossimo futuro: spazi ibridi in cui non solo persone ma anche dispositivi e oggetti oscillano tra luoghi fisici e luoghi della Rete; in cui le dimensioni spaziali e temporali assumono nuovi valori, non più soltanto quello legato alla descrizione del territorio, delle sue caratteristiche naturali e delle attività antropiche.

In questo contesto complesso, dai molti e diversi stakeholder,  il GIM può trovare la sua collocazione più ambiziosa e proficua, per contribuire all’evoluzione del management dei dati geografici, sempre più basato su infrastrutture di dati interconnesse, secondo modelli distribuiti e smart, cioè efficienti per la produzione e per l’uso razionale dei dati geografici stessi.

Questa immagine un po’ visionaria può offrire forse spunti per raccogliere idee utili per promuovere il coinvolgimento del GIM all’interno dei processi delle smart communities. L’ozio agostano può stimolare la fantasia: ogni suggerimento sarà benvenuto!

Serene vacanze a tutti! 

Sergio Farruggia

L'articolo Un’altra tappa del GIM raggiunta è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

TANTO: Vogliamo anche RNDT nel registro INSPIRE #RNDT4INSPIRE!

NdR: la redazione di TANTO aderisce a questa campagna e si augura che questo incomprensibile stallo venga superato di slancio.

Un anno e mezzo fa (per la precisione il giorno 11 febbraio 2014), su iniziativa di alcuni appassionati geomatici italiani, veniva lanciata una petizione per denunciare la mancata presenza dell’Italia nel registro INSPIRE: italy4INSPIRE

Questa iniziativa, che ha raccolto rapidamente oltre 100 adesioni, non solo di singole persone ma anche di associazioni e comunità del settore geomatico, puntava a mettere in risalto il fatto che bastava un granellino di sabbia nella farraginosa ed infernale macchina burocratica (il mancato invio di una mail da parte di fantomatici responsabili), per far fare al nostro Belpaese l’ennesima figuraccia in campo internazionale.

E la beffa era che l’Italia aveva adempiuto già da tempo alla normativa di settore realizzando il “Repertorio Nazionale dei Dati Territoriali” (RNDT) e quindi poteva addirittura farci arrivare al traguardo tra i primi in Europa.

Tra l’altro, l’iniziativa veniva ripresa anche in due interrogazioni parlamentari, presentate rispettivamente il 4 luglio e il 12 novembre 2014, rimaste tuttora senza risposta.

Cosa è successo a distanza di così tanto tempo?

Che ci abbiamo messo la solita “pezza” all’Italiana, registrando il solo endpoint del Geoportale Nazionale (che annovera poche centinaia di metadati), continuando a ignorare RNDT, nonostante la legge europea consenta ad ogni Stato Membro di esporre più di un punto di accesso nazionale.

Perché? Visto che il D.lgs. 32/2010 richiama esplicitamente RNDT e che questo in uniformità e continuità con il monitoraggio “previsto dalla Commissione” 2014 segnalava 6140 metadati e quello 2015 ne riporta oltre 17940, perché non è stato ancora registrato?

Chissà se qualcuno, con un nome, un cognome ed una faccia, riuscirà mai a dare una risposta e, soprattutto, a raggiungere l’obiettivo di registrare l’endpoint RNDT nel registro INSPIRE.

Vogliamo anche RNDT nel registro INSPIRE http://bit.ly/rndt4inspire!

L'articolo Vogliamo anche RNDT nel registro INSPIRE #RNDT4INSPIRE! è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

TANTO: GDAL-OGR per accedere a cataloghi geografici (CSW)

Il 18 giugno 2015 è stata rilasciata la versione 2.0.0 di GDAL/OGR. Una delle novità è legata a un nuovo driver di OGR “Catalog Service for the Web (CSW)”, che consente di accedere a cataloghi di risorse cartografiche esposti sul web.

La sintassi di base per leggere le informazioni da queste fonti è:

ogrinfo -ro -al -noextent CSW:http//catalogo.it/csw

L’utility di riferimento è ogrinfo, e sono a disposizione quindi tutte le altre opzioni del comando.

I cataloghi CSW sono un po’ come quei cassetti pieni di calzini in cui, in occasione di una importante ricorrenza, cerchiamo quelli lilla a pois bianchi (sono an pendant con l’ultima nostra meravigliosa giacca), ma per troppa abbondanza e varietà non riusciremo mai a trovare. Bisogna anche saper cercare :)

OGR è l’ultimo arrivato tra gli strumenti di accesso e ricerca. Ecco qualche semplice esempio, basato sul catalogo del Repertorio Nazionale dei Dati Territoriali (RNDT).

Avere l’elenco di tutti i record del server

ogrinfo -ro -al -noextent CSW:http://www.rndt.gov.it/RNDT/CSW -oo MAX_RECORDS=100

Sul catalogo RNDT sono presenti più di 17000 record, quindi la risposta al comando sarà “lunga”. L’opzione MAX_RECORDS fissa il numero massimo di record che è possibile ricevere ciclicamente durante una chiamata. Nell’esempio di sopra, per 17000 record quindi 170 cicli, ognuno composto da 100 record di output.

Tutti i record all’interno di una determinata area

ogrinfo -ro -al -noextent CSW:http://www.rndt.gov.it/RNDT/CSW -spat 12 35 15 38 -oo MAX_RECORDS=100

Ogni record di un catalogo CSW è associato ad un’estensione geografica. Inserendo il parametro -spat si impostano le coordinate del boundig box (xmin ymin xmax ymax, in EPSG:4326) all’interno del quale si vuole eseguire la ricerca: in risposta si avranno tutti i record ricadenti in quell’area.

ogrinfo -ro -al -noextent CSW:http://www.rndt.gov.it/RNDT/CSW -where \"abstract LIKE '%geologia%'\" -oo MAX_RECORDS=100

In questo modo si cercheranno tutti i record che contengono la parola “geologia” nel campo “abstract”. Ad oggi sono 31.

2015-07-31_11h57_06

Gli altri campi che è possibile sfruttare per fare ricerche sono:

  • identifier (String)
  • other_identifiers (StringList)
  • type (String)
  • subject (String)
  • other_subjects (StringList)
  • references (String)
  • other_references (StringList)
  • modified (String)
  • abstract (String)
  • date (String)
  • language (String)
  • rights (String)
  • format (String)
  • other_formats (StringList)
  • creator (String)
  • source (String)

Tutti i record che contengono una determinata stringa in un campo qualsiasi

ogrinfo -ro -al -noextent CSW:http://www.rndt.gov.it/RNDT/CSW -where \"anytext LIKE '%frane%'\" -oo MAX_RECORDS=100

La stringa cercata è “frane”, e si ottengono 52 record.

Tutti i record della ricerca precedente ma in formato ISO 19115/19119

ogrinfo -ro -al -noextent CSW:http://www.rndt.gov.it/RNDT/CSW -where \"anytext LIKE '%frane%'\" -oo OUTPUT_SCHEMA=gmd -oo MAX_RECORDS=100

L’output in questo caso è secondo lo schema descritto qui http://www.isotc211.org/2005/gmd. Se invece si scrive OUTPUT_SCHEMA=csw, sarà secondo queste specifiche http://www.opengis.net/cat/csw/2.0.2.


Tutte le altre novità su GDAL/OGR 2.0.0 le trovate sintetizzate nel post di Even Rouault e purtroppo il catalogo RNDT non è ancora nel registro INSPIRE! :(

L'articolo GDAL-OGR per accedere a cataloghi geografici (CSW) è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

La Cartoteca: Las más antiguas representaciones cartográficas de las corrientes marinas

Los mapas que representan las corrientes oceánicas superficiales son comunes hoy día, cuando contamos con mapas que van desde lo sencillo a lo más abigarrado.

Pero no hace tanto tiempo, tanto la propia concepción de lo que son las corrientes marinas como su representación más o menos certera, constituían grandes retos para los cartógrafos. Una exposición virtual sobre infografías añejas del Smithsonian publicada hace un año nos descubría uno de esos primeros intentos de representación de las corrientes oceánicas superficiales. He aquí el mencionado mapa, que data de 1685 (pinchar en la imagen para ampliar).

corrientes_marinas_1685

No es muy preciso, ni mucho menos, pero resulta asombrosa la capacidad de síntesis global que llevó a su elaboración, teniendo en cuenta lo limitado de la información real disponible en la época. Está realizado a partir de la unión de datos anotados a lo largo del tiempo por diversos marinos. El mapa fue creado en 1685 por el polifacético escritor alemán Eberhard Werner Happel (1647-1690). Sin embargo, esta obra cartográfica sobre corrientes marinas publicada en su libro Größte Denkwürdigkeiten der Welt oder sogenannte relationes curiosae, no fue la primera en su tipo. Este mapa estaba influido por la que es considerada como la primera representación cartográfica de las corrientes marinas de la historia. Se trata de un mapa creado por el genial eurito Athanasius Kircher (1602-1680) y publicado en su obra Mundus subterraneus, quo universae denique naturae divitiae en 1665. He aquí ese mapa que, como puede verse, no deja de ser una simplificación imaginaria de lo que intuía Kircher acerca de las corrientes marinas (pinchar en la imagen para ampliar).

1665_Kircher

Las más antiguas representaciones cartográficas de las corrientes marinas apareció originalmente en La Cartoteca, julio 30, 2015.

GeoRezo.net - Géoblog: [Litto3D] La Méditerranée, choisie pour accueillir 75% des parcs éoliens flottants

Vendredi 17 juillet, Ségolène Royal, Ministre de l'Ecologie, du Développement Durable et de l'Energie, a désigné les quatre zones propices au développement de l'éolien flottant : trois d'entres elles se trouvent en Méditerranée!

Situées au large du phare de Faraman (Bouches-du-Rhône), des étangs de Leucate et de la commune de Gruissan (Aude), ces zones ont été sélectionnées suivant des critères techniques et d'intégration environnementales pour accueillir les futures « fermes pilotes éoliennes flottantes ». Elles participeront ainsi au développement de la filière des énergies renouvelables pour tenir l'objectif fixé par la loi de transition énergétique pour la croissance verte d'une production d'électricité assurée à 40% par des sources renouvelables à l’horizon 2030.

L'apport des données Litto3D®?

Les données Litto3D®, qui décrivent précisément la nature du relief des fonds marins, présentent un fort intérêt pour les futurs exploitants de ces "fermes", notamment pour l'optimisation de la pose des câbles électriques sous-marins qui approvisionneront en électricité produite le réseau de transport national (identification du chemin le plus court, de l'itinéraire le moins accidenté, réduction des frais de maintenance, ...). Ces données gratuites, ouvertes et mises à disposition par le SHOM existent sur la totalité du littoral des régions Provence-Alpes-Côte d'Azur et Languedoc-Roussillon.

article_parcs-eoliens

Pour plus d'informations :
- communiqué de presse du MEDDE disponible ici.
- communiqué de presse de la Région PACA disponible ici.

Spatialists: Ignite Zurich talk on Informational Magnetism

Ignite-ZH-talk-informational-magnetism

Photo by @acolt

On July 3rd, I was invited to give a talk at Ignite Zurich. If you don’t know the format: it boils down to 20 slides that auto-advance every 15 seconds giving you a total of 5 minutes stage time – pretty intense! I chose to make my talk about some of the research I’ve been doing with my colleagues at the Oxford Internet Institute, namely Drs. Mark Graham and Bernie Hogan.

I’ve published the slides on SlideShare:

You can see some tricks I employed, for example building up to a conclusion over three to four slides in order to try and convey some more complex bits of information. Because of the format the information content of the slides overall is relatively low, I’m afraid. But Ignite Zurich will soon post videos of all talks, I shall update once I know more.

Meanwhile, if you’re interested in this research topic, please find more info using these links (or contact me on Twitter or via mail):

 

Orbemapa: Cerrando la brecha GIS: “Hecho con GIS”

¿Existe la brecha GIS? En la actualidad tenemos una serie de indicios que apuntan a que la adopción y uso de los datos espaciales ha alcanzado una cierta madurez, al menos mediática, por parte de la sociedad. Entre los indicios podemos destacar los más conocidos por todos: A pesar de estas tendencias,post, tuiteos, noticias…

Dynamick: Recuperare file cancellati: la nostra prova

Ci è stata data la possibilità di provare la versione Pro di un software per il recupero di file persi per una cancellazione erronea, o dopo aver formattato il disco, o per perdite di partizioni o per un crash del sistema operativo o per un attacco di virus.

Si chiama Data Recovery Wizard Professional disponibile sia in versione Mac sia in versione Windows e ad oggi è arrivato alla versione 9.0 e fa parte dei tanti software catalogati come data recovery software. Dopo averlo scaricato, installato e licenziato correttamente, l’abbiamo subito messo alla prova, inserendo una chiavetta USB che ci è stata regalata. In realtà il software funziona anche su dischi formattati, oppure con partizioni cancellate, oppure su dischi il cui sistema operativo sia corrotto.

jbjhgajf

L’interfaccia semplice ci ha reso il compito davvero semplice: l’operazione è suddivisa in 3 pagine guidate. Nella prima si selezionano il tipo di file da recuperare, nella seconda si seleziona il disco su cui avviare l’operazione di ricerca e nell’ultima si analizzano i risultati e si mettono al sicuro i dati recuperati.

Il risultato si è rivelato parzialmente buono nella prima fase, in cui sono state recuperate alcune fotografie che avevamo cancellato in seguito ad una formattazione. Il software ci ha poi suggerito una scansione approfondita che in 2 minuti circa ci ha restituito praticamente tutti i file che sono transitati nella vita di quella pen drive da 4GB. Davvero stupefacente. Semplice, efficace e molto veloce.

Le operazioni di hard disk recovery sono sempre molto costose se affidate ad aziende private. Come prima operazione che potreste fare è provare a recuperare da soli i file persi. Il costo di Data Recovery Wizard Professional è di 70$, poco più di 50€, un costo minimo che vi potrebbe salvare la vita nel caso abbiate perso documenti davvero molto importanti.

 

GeoRezo.net - Géoblog: [La Minute GeoRezo] 3ème Colloque Métiers et compétences en géomatique

image002


Le Pôle Formation-Recherche de l’AFIGEO en partenariat avec
l’association GeoRezo et l’AITF organise son
3e colloque national


Métiers et compétences en géomatique : de la recherche à la formation professionnelle


Mercredi 9 décembre 2015
AgroParisTech - 19, avenue du Maine, Paris 14ème


Depuis 2003, l’AFIGEO et ses partenaires ont engagé une démarche de reconnaissance des métiers de la géomatique. Dans la continuité des précédentes éditions (2011 & 2013), cette journée abordera la question de l’adéquation entre l’offre de formations et l’évolution des métiers en géomatique en questionnant d’une part leur lien avec la recherche, et d’autre part l’évolution du contexte institutionnel et réglementaire de la formation professionnelle.


Après une conférence introductive consacrée à l’impact de l’innovation technologique sur la filière géomatique et ses métiers, cette journée permettra aux participants d’échanger sur l’impact de la recherche sur les pratiques et les métiers, sur les évolutions réglementaires en cours dans la formation professionnelle et sur l’implication des acteurs de la filière (employeurs, branches professionnelles, prescripteurs de formation, associations d’anciens élèves, chercheurs, responsables de formation) dans ces deux domaines :




  • recherche-développement et recherche-action en géomatique

  • réglementation, certification des compétences, évolution/adaptation des offres de formation.


Des témoignages de chercheurs, de formateurs, de prescripteurs et de recruteurs des secteurs public et privé, permettront d’envisager collectivement les actions prioritaires à mener par l’AFIGEO avec ses partenaires pour mieux valoriser ces nouvelles compétences.


Programme et inscriptions à partir de septembre 2015.
www.afigeo.asso.fr - afigeo AT afigeo.asso.fr


partenaires-colloque2015

Orbemapa: El impacto mediático de la “Smart city”: ¿Éxito de masas o moda entre el público especializado?

El impacto de la Smart city: ¿Éxito de masas o moda entre el público especializado?

Orbemapa: El doble spillover de la smart city

Las ciudades inteligentes (Smart city) y las redes inteligentes (Smart grid) son palabras con las que uno se encuentra de manera recurrente durante los últimos meses en los medios de comunicación especializados en geomática y también en los medios generalistas. No vamos a entrar en el debate sobre la necesidad de la smart city…

Dynamick: Host1plus: test e valutazioni

Abbiamo avuto l’occasione di provare l’hosting di Host1Plus.com, una farm di servizi web dislocata con diversi datacenter su gran parte del mondo e con quattro uffici operativi: a Londra (UK), Kaunas (Lituania), Francoforte sul Meno (Germania) e Santiago (Cile).

Host1plus nasce nel 2008 a Vilnius in Lituania da Andrius Kazlauskas e da Deividas Norkaitis e con gli anni si è espansa al punto di diventare una realtà internazionale. Attualmente offre una completa gamma servizi quali il web hosting, il VPS hosting, i server dedicati, soluzioni cloud hosting, nomi a dominio, certificati SSL, ottimizzazione server e anche servizi di assistenza custom.

datacenter-host1plus

Per questa recensione, abbiamo testato un VPS (Virtual Private Server), 2 Core, 2048MB di RAM. Nel pacchetto è prevista una velocità di banda di 50 Mbps, e 40GB di disco.

Pannello di controllo

La prima valutazione è stata fatta sul pannello di gestione, la porta d’entrata di qualsiasi utente ai servizi offerti dal provider.

dashboard

Il pannello si presenta ottimamente: il design pulito e la struttura responsive. Il menu di sinistra è ben organizzato, chiaro e si ritrae su risoluzioni inferiori.

resp

L’interfaccia è localizzata su 4 lingue: Inglese, Lituano, Portoghese e Spagnolo. Purtroppo la lingua italiana manca, ma generalmente l’inglese è ben conosciuto dai sistemisti e da chi comunque ha un’infarinatura tecnica.

Supporto

Da notare nel menu di servizio la chat online che durante i nostri test è rimasta sempre disponibile. Abbiamo provato anche a contattarla per un banale richiesta per verificare i tempi di risposta. Abbiamo aspettato 3 minuti prima che l’operatore rispondesse, un tempo accettabile per questo tipo di servizio. Inoltre l’assistenza, benchè la domanda fosse triviale, è stata cortese e professionale.

Oltre la chat, utilizzabile per problemi più urgenti, è presente un sistema di ticketing al quale sottoporre le proprie domande.

Prestazioni

Per valutare le prestazioni abbiamo lanciato un test da riga di comando su bash scritto da Getipaddr e che potete trovare a questo indirizzo.  Lo scopo di questo script di speedtest è quello di dare un quadro completo delle capacità di rete. Un server fornisce contenuti, il che significa che la velocità di upload è estremamente importante e non deve essere trascurato in un test di benchmark di rete.

Questo il log risultante:

-------------Speed test--------------------
Testing North America locations
Speedtest from Portland, Oregon, USA [ generously donated by http://bonevm.com ] on a shared 100 Mbps port
	Download Speed: 8.40 MB/sec
	Upload speed: 3.88 MB/sec
Speedtest from Seattle, Washington, USA [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 15.09 MB/sec
	Upload speed: 17.63 MB/sec
Speedtest from Los Angeles, CA, USA [ generously donated by http://maximumvps.net ] on a shared 1 Gbps port
	Download Speed: 4.34 MB/sec
	Upload speed: 8.27 MB/sec
Speedtest from Los Angeles, California, USA [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 15.25 MB/sec
	Upload speed: 10.28 MB/sec
Speedtest from Denver, CO, USA on a shared 100 Mbps port
	Download Speed: 11.58 MB/sec
	Upload speed: 19.74 MB/sec
Speedtest from Kansas City, MO, USA [ generously donated by http://megavz.com ] on a shared 1 Gbps port
	Download Speed: 0 MB/sec
	Upload speed: 0 MB/sec
Speedtest from Dallas, TX, USA [ generously donated by http://cloudshards.com ] on a shared 1 Gbps port
	Download Speed: 11.67 MB/sec
	Upload speed: 12.05 MB/sec
Speedtest from Chicago, IL, USA [ generously donated by http://vortexservers.com ] on a shared 1 Gbps port
	Download Speed: 16.16 MB/sec
	Upload speed: 17.75 MB/sec
Speedtest from Beauharnois, Quebec, Canada [ generously donated by http://mycustomhosting.net ] on a shared 1000 Mbps port in / 500 Mbps port out
	Download Speed: 4.40 MB/sec
	Upload speed: 12.87 MB/sec
Speedtest from Beauharnois, Quebec, Canada [ generously donated by http://hostnun.net/ ] on a shared 500 Mbps port
	Download Speed: 12.91 MB/sec
	Upload speed: 17.21 MB/sec
Speedtest from New York City, New York, USA [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 16.18 MB/sec
	Upload speed: 35.58 MB/sec
Speedtest from Atlanta, Georgia, USA [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 16.96 MB/sec
	Upload speed: 18.71 MB/sec
Speedtest from Lenoir, NC, USA [ generously donated by http://megavz.com ] on a shared 1 Gbps port
	Download Speed: 13.99 MB/sec
	Upload speed: 2.18 MB/sec
Speedtest from  Asheville, NC, USA on a shared 1 Gbps port
	Download Speed: 14.08 MB/sec
	Upload speed: 17.25 MB/sec
Speedtest from Jacksonville, FL, USA [ generously donated by http://maximumvps.net ] on a shared 1 Gbps port
	Download Speed: 5.48 MB/sec
	Upload speed: 3.60 MB/sec

Testing EU locations
Speedtest from Tallinn, Estonia on a shared 1 Gbps port
	Download Speed: 13.50 MB/sec
	Upload speed: 1.48 MB/sec
Speedtest from London, United Kingdom on a shared 1 Gbps port
	Download Speed: 66.46 MB/sec
	Upload speed: 43.08 MB/sec
Speedtest from Paris, France on a shared 1 Gbps port
	Download Speed: 31.26 MB/sec
	Upload speed: 16.92 MB/sec
Speedtest from Alblasserdam, Netherlands [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 80.10 MB/sec
	Upload speed: 68.07 MB/sec
Speedtest from Spijkenisse, Netherlands [ generously donated by http://www.freshnetworks.co ] on a 1 Gbps shared port
	Download Speed: 31.88 MB/sec
	Upload speed: 40.07 MB/sec
Speedtest from Milan, Italy [ generously donated by http://www.prometeus.net ] on a shared 1 Gbps port
	Download Speed: 30.87 MB/sec
	Upload speed: 54.70 MB/sec
Speedtest from Dusseldorf, Germany [ generously donated by http://megavz.com ] on a shared 1 Gbps port
	Download Speed: 2.04 MB/sec
	Upload speed: 20.84 MB/sec
Speedtest from Falkenstein, Germany [ generously donated by http://megavz.com ] on a shared 1 Gbps port
	Download Speed: 22.78 MB/sec
	Upload speed: 43.33 MB/sec
Speedtest from Bucharest, Romania [ generously donated by http://www.prometeus.net ] on a semi-dedicated 1 Gbps port
	Download Speed: 11.58 MB/sec
	Upload speed: 11.61 MB/sec

Testing Asian locations
Speedtest from Singapore on a shared 1 Gbps port
	Download Speed: 11.37 MB/sec
	Upload speed: 4.82 MB/sec
Speedtest from Tokyo, Japan on a shared 1 Gbps port
	Download Speed: 1.58 MB/sec
	Upload speed: 1.33 MB/sec

Testing Australian locations
Speedtest from Sydney, Australia on a shared 1 Gbps port
	Download Speed: 1.10 MB/sec
	Upload speed: 1.19 MB/sec
---------------CPU test--------------------
CPU: 1 x QEMU Virtual CPU version 1.0
Time taken to generate PI to 5000 decimal places with a single thread: 0m27.784s
----------------IO test-------------------
Writing 1000MB file to disk
(1.1 GB) copied, 5.68625 s, 189 MB/s

Interessante notare i picchi raggiunti in Olanda (80 MB/sec in download e 68 MB/sec in upload) e un buon comportamento generale in europa. In America la banda è accettabile con picchi fino a 35 MB/sec in upload e 16 MB/sec a New York. L’Asia e l’Australia forniscono risultati peggiori probabilmente dovuti all’infrastruttura esterna più che a deficit del provider.

Abbiamo inoltre messo a confronto i testi di IO throughput  e CPU test con un VPS dual core su DigitalOcean che ha prodotto questi risultati:

---------------CPU test--------------------
CPU: 2 x Intel(R) Xeon(R) CPU L5630 @ 2.13GHz
Time taken to generate PI to 5000 decimal places with a single thread: 0m39.094s
----------------IO test-------------------
Writing 1000MB file to disk
(1.1 GB) copied, 2.34606 s, 458 MB/s

La potenza di calcolo si è dimostrata migliore in Host1Plus impiegando solo 0m27.784s rispetto ai  0m39.094s su DigitalOcean. Invece l’IO speed si è rivelato migliore su DigitalOcean che ha doppiato i tempi di Host1Plus. Quest’ultimo risultato è riconducibile all’uso da parte di DigitalOcean di dischi allo stato solido (SSD) che accelerano il throughput su disco, mentre Host1Plus utilizza dischi tradizionali con solamente la cache SSD.

Costi

Host1Plus offre diverse tipologie di servizio di hosting. Dal più banale hosting condiviso, alle VPS, ai server dedicati.

L’hosting condiviso parte dai 7€ all’anno per piani basilari (1GB di spazio, 50GB di banda) ai 132€ all’anno per piani più ricchi di servizi (banda illimitata, 100GB spazio, indirizzo IP gratuito).

I cloud server partono da cifre di 2€/mese (0.5 core, 256 MB di ram, 20 GB di disco, 500GB di banda, 1 IP) ad oltranza. Il piano Gold, per esempio, costa 32€/mese per 4 core, 4 GB di ram, 70 GB di disco, 3000 GB di banda e 1 IP.

I server dedicati, infine, hanno prezzi superiori, per prestazioni chiaramente migliori. Si parte da server dal costo di 50€/mese per arrivare a cifre ben più importanti per server di categoria superiore.

La Cartoteca: Una herramienta para elegir la mejor proyección cartográfica

Projection Wizard es una sencilla aplicación web, creada por el Departamento de Cartografía de la Oregon State University, que puede servirnos de ayuda a la hora de elegir la mejor proyección cartográfica cuando nos encontremos preparando mapas, ya sean del mundo o de una porción de la superficie terrestre.

map_projection_wizard

Su funcionamiento es realmente sencillo. En primer lugar se debe seleccionar el área que se va a representar en el mapa sobre una imagen global de nuestro planeta. Esa selección puede hacerse a través de la ventana interactiva sobre la pantalla, o bien se pueden introducir las coordenadas correspondientes. Luego, se elige el tipo de proyección deseado (conforme, equidistante…), y ya está. Tendremos en pantalla una lista, con características detalladas, acerca de la proyección recomendada para plasmar nuestro mapa. Como extra, cabe señalar que, en algunos casos, se permite la descarga de ficheros proj.4, que encuentran utilidad en la conversión entre proyecciones en diversos tipos de software cartográfico.

| Vía Maps Manía |

Una herramienta para elegir la mejor proyección cartográfica apareció originalmente en La Cartoteca, junio 26, 2015.

Spatialists: Fabulous Finds II

source

→ Google Sheep View

source

If you are like me you love a good parody and hence this new Google product.

 

→ What to do if your p-value is just over the arbitrary threshold for ‘significance’ of p=0.05?

Matthew Hankins carried out an analysis of the wording researchers use when their statistical tests yield non-significant results (p > 0.05). Hilarious!

” The following list is culled from peer-reviewed journal articles in which (a) the authors set themselves the threshold of 0.05 for significance, (b) failed to achieve that threshold value for p and (c) described it in such a way as to make it seem more interesting.
[…]
here is the list in full:
(barely) not statistically significant (p=0.052)

a barely detectable statistically significant difference (p=0.073)
a borderline significant trend (p=0.09)
a certain trend toward significance (p=0.08)
a clear tendency to significance (p=0.052)
a clear trend (p<0.09)
a clear, strong trend (p=0.09)
[…]”

[Matthew Hankins, via Justin Wolfers]

 

→ Bringing a hammer to a wiring problem…

You know the saying about hammers and nails. I do believe being a domain expert not only means knowing how to use what tool to what end, but also knowing when the tools of your domain are not the right ones for a job:

[Brian Timoney]

 


(Under the title Fabulous Finds I collect links that I have found interesting, relevant or inspiring for some reason, but that don’t squarely fit into the core themes of this blog. It’s only an experiment as of now.)

 

Orbemapa: ¿Un mapa turístico o una experiencia turística?

Los mapas turísticos tradicionales Los mapas turísticos que podemos conseguir en la oficina de turismo de cualquier ciudad tienen características conocidas por todos. Algunas de ellas son casi signo distintivo de este tipo de cartografía, hasta el punto de casi definir un estándar consuetudinario formado por: callejeros con monumentos destacados mediante el uso del…

Spatialists: Visualizing group sizes and inter-group flows

source

A few weeks ago, I came across the following graphics on Twitter:

They depict voter share per party (including absentees, in grey) (top) and voter flows between different parties in the 2015 cantonal elections in Zurich. The graphics are produced by sotomo, a research company at the nexus of science and practical application occupying itself with political and economic topics. I’m not sure if only the lower graphic or both have been produced jointly with the Swiss daily Tagesanzeiger, but I think only the lower graphic has been published in the newspaper.

Circles

These graphics pose interesting problems and both are connected to the circles:

The top graphic uses circles to represent voter shares. It’s of course hard to assess the relative sizes of the circles (the usual problem with such depictions). But this is clearly also not the point sotomo aims to make (there are no scales or quantitative labels of any kind). Instead, the point they want to drive home is – I think – that there is a very large share of people who didn’t vote in the elections – and that aspect of the graphic works.

(In parantheses: Even if this might shock you, it’s not very uncommon in Switzerland. Many pundits take it as a sign not of political apathy but rather of people generally being okay with how things are run around here.)

Aside: Scaling and judgement

In the 1950s, various scholars studied biases in perception, one of them being James Flannery. Based on earlier research on how people often judge relative sizes of circles wrongly, he introduced a so-called “appearance compensation” for circular diagrams. This algorithm would adjust relative sizes of circles in a manner that, on average, would compensate for the biased perception. However, nowadays most people argue that these methods should not be used anymore, but instead other means that support accurate perception of circular diagrams.

Flows and circles

Other than the first graphic that I kind of like in its simplicity and to-the-point message, I find the second graphic not ideal. The problem is in the legend and how it instructs us to use the graphic. Both circle size and width of the flow vectors encode the same property: number of voters supporting a party and number of voters who changed their endorsement of a party. Showing these properties is a nice idea, in my opinion. But how the authors chose to depict them damages the message as it is not possible to appreciate both the flows and the party support bases simultaneously and in relation to each other. Even given the legend with the circle representing 30,000 and the arrow representing 1,000 the comparison does not compute.

That’s a shame. I think the reason the authors chose this kind of diagram might have to do with the fact that this and similar diagrams have become very popular over the last few years. Also, they are relatively easily made for example with Gephi or D3.

However, there are clearly better alternatives, in my opinion. For example, the widely used D3 chord diagrams are capable to make the group sizes and the inter-group flows comparable (or, speaking within the above example, the party support and voter flows). An even nicer approach has been used in the UK General Election by The Guardian*. It avoids difficulties that are commonly associated with round graphics by basically unravelling a chord diagram onto a straight axis thereby creating a simple Sankey diagram.

The Guardian’s approach can show group size (party support in 2010, top, and 2015/projected, bottom) as well as the size of flows between the groups (voter flows, from top to bottom) clearly and simultaneously:

The graphic’s complexity is alleviated by the built-in interaction which always highlights only one party (either in 2010 or in 2015) and associated flows. Additionally, the Guardian team have disassembled the wins and losses of the individual parties into distinct static graphics, beneath this comprehensive one (not shown above).

In what clever ways do you visualise group size and flow size, simultaneously or not?

 

*: In the interest of full disclosure: I have assisted The Guardian with the UK General Election 2015 cartogram.

La Cartoteca: Atlasify, o cómo convertir términos de búsqueda en mapas

Hay vida más allá de Google, aunque en el mundo de las búsquedas de Internet sea el rey, o casi dios, al menos de momento. Atrás quedaron los añejos Altavista y el todavía presente pero rezagado buscador de Yahoo. Mientras tanto, Bing intenta seguir en la carrera que lidera el gigante de Mountain View. Por otra parte, sin querer competir con Google y el resto de jugadores en la partida de los buscadores, hay otras propuestas que son simplemente experimentales y hasta divertidas.

atlasify_silk_road
Ejemplo de búsqueda en Atlasify para el término “silk road” (ruta de la seda).

Es el caso de Atlasify, un buscador singular que convierte los términos de búsqueda en representaciones visuales bidimensionales. De momento cuenta con pocos marcos de representación, no va más allá de mostrar datos sobre mapas del mundo o en la tabla periódica de los elementos químicos y poco más (ejes cronológicos y algunas representaciones relacionadas con la política), pero promete ir creciendo con el tiempo. ¿Tiene utilidad? Bien, eso según se mire. Al tratarse de algo experimental (en Beta, claro está), siendo prácticamente un juego, puede que a primera vista no parezca útil, pero tiene su encanto y cierta enjundia.

atlasify_beer
Ejemplo de búsqueda en Atlasify para el término “beer” (cerveza).

Atlasify ha surgido de una colaboración entre la Universidad de Minnesota y la Universidad Northwestern. Está construido sobre la API de WikiBrain que, a su vez, se alimenta de la Wikipedia. Ahora mismo, la mayor parte de las salidas gráficas corresponden a las representaciones visuales en modo de mapa interactivo. Esa interactividad cae del lado de la Wikipedia, mostrando en los gráficos la información de las entradas relacionadas con la información solicitada. Atlasify incluye, además, un curioso juego para descubrir términos de búsqueda partiendo de representaciones ya completas (para eso hay que pinchar en el buscador sobre el llamativo icono de “This or That”).

| Vía Maps Mania |

Atlasify, o cómo convertir términos de búsqueda en mapas apareció originalmente en La Cartoteca, junio 20, 2015.

La Cartoteca: Mapa de altitudes de líneas de ferrocarril de España

En una reciente visita al Museo del Ferrocarril de Madrid, me llamó la atención un curioso mapa sobre las altitudes de las líneas férreas españolas que ya tiene unos cuantos años a sus espaldas. Resulta interesante para ver cómo, con sencillos medios, se pueden conseguir modos de visualización de información compleja realmente atractivos (tengo que reconocer que no es demasiado intuitivo a primera vista, pero sí muy llamativo). En uno de los boletines del museo he encontrado más información sobre este curioso mapa:

El mapa de altitudes representa la situación de la red ferroviaria de vía ancha entre los años 1945 y 1951, dibujando las líneas con vía única y las de vía doble, bien electrificadas o pendientes de electrificación. Tiene una escala horizontal 1:1.300.000 y una escala vertical 1:20.000. En él podemos apreciar la máxima cota ferroviaria en España a cielo abierto –situada en La Cañada (Ávila), con 1.359 metros– y en túnel –con una máxima altitud de 1.495 metros, en la Collada de Tosas (Girona)–. Se creó tomando como base un mapa impreso de la red ferroviaria peninsular, cuyo autor no se ha podido determinar. Sobre dicho mapa se fueron perfilando las líneas férreas realizando hendiduras, para poder incrustar los perfiles longitudinales –elaborados en acetato– de cada una de las líneas.


Las siguientes fotografías fueron tomadas con un móvil durante la mencionada visita.

mapa_de_altitudes_de_lineas_3

mapa_de_altitudes_de_lineas_5

mapa_de_altitudes_de_lineas

mapa_de_altitudes_de_lineas_2

mapa_de_altitudes_de_lineas._6JPG

Mapa de altitudes de líneas de ferrocarril de España apareció originalmente en La Cartoteca, junio 14, 2015.

Spatialists: Fabulous Finds I

→ The real reason American passenger trains are so bad

“It’s not just that these services aren’t the best in the world and don’t deploy the most cutting-edge technology available. They are often truly abysmal, with travel times worse than what was possible 100 years ago.” [Vox]

Matthew Yglesias gives some interesting insights into the reasons for the state of US passenger rail, some historic, some geographic and many of them quite surprising to me.

[Matthew Yglesias, Vox]

 

→ Apple Watch’s Activity app UI is the same as the 8-yr-old PolarClock screensaver’s

It’s all in the title.

[Dane Baker, via Eli Schiff]

 

→ The Shadow in the Darkness

In this short film, Joe Bollard, who is blind, talks about his relationship with his guide dog. [Video, 7:22mins]

Click here to view the embedded video.

[BlackBox Documentaries, via kottke]


(Under the title Fabulous Finds I collect links that I have found interesting, relevant or inspiring for some reason, but that don’t squarely fit into the core themes of this blog. It’s only an experiment as of now.)

 

TANTO: GeoCetus: la banca dati italiana aperta sugli spiaggiamenti di cetacei e tartarughe marine

La Genesi

Verso la fine del 2011 nella mia casella di posta elettronica trovai un invito per una conferenza dal titolo “Gli squali nel Mediterraneo”, che si sarebbe tenuta di lì a pochi giorni a Pescara.
Ormai non ricordo più se il titolo fosse davvero quello, né chi fosse il mittente della mail, fatto sta che decisi di andare, spinto in gran parte dalla voglia di passare – dopo anni – una giornata ad ascoltare discorsi di biologia marina “pura” e prendermi una pausa dalle solite cose: gis, json, rest, php, cors, script, sql, ecc.
Dell’intervento principale sugli squali ricordo poco o nulla, non mi colpì granché, ma ricordo bene l’intervento del dottor Vincenzo Olivieri, veterinario e presidente della Onlus “Centro Studi Cetacei” (CSC), che non parlò di squali, ma di spiaggiamenti di cetacei, dei casi di studio più interessanti che aveva incontrato, di indagini sul campo e metodologie analitiche, del lavoro svolto dalla sua associazione e di tanto altro. Ciò che mi fece drizzare le orecchie, man mano che andava avanti, fu pensare alla quantità di datidati spaziali, probabilmente – che il Centro Studi Cetacei poteva (e doveva!) aver raccolto.
Le domande che avevo in testa erano: “Dove li terranno questi dati?”, “In che formato saranno conservati?”, “Saranno disponibili?”, “Saranno accessibili?”.
Al termine della conferenza andai dritto da Olivieri, parlammo una decina di minuti e venne fuori un accordo, direi uno scambio: il Centro Studi Cetacei mi avrebbe fornito i dati sugli spiaggiamenti dopo averli riordinati e organizzati il meglio possibile, visto che erano sparsi in vari fogli Excel, documenti PDF e addirittura qualche scheda cartacea e io avrei sviluppato, senza costi per il CSC, uno strumento informatico per consultarli in maniera semplice e veloce sul web. In cambio chiesi che il risultato di questo nostro sforzo congiunto fosse messo a disposizione come open data.
Ci tengo a sottolineare che questa mia richiesta venne accolta immediatamente e con entusiasmo, segno di un’apertura mentale da parte del mio interlocutore che, ancora oggi, non so quanto sia facile trovare tra i non addetti ai lavori.

Pronti, si comincia!

La primissima fase consistette in una serie di incontri con Vincenzo e con altre persone del CSC; il nostro obiettivo era individuare un minimo comune denominatore nelle informazioni in loro possesso e, partendo da qui, organizzare lo storico in maniera coerente e il più possibile ordinata.
Successivamente fu la volta di scegliere gli strumenti informatici da usare per dare vita al nostro progetto e, non avendo vincoli se non mantenere a zero i costi dell’operazione, decisi per uno stack tecnologico collaudato e completamente open source: PostGIS, GeoServer e OpenLayers. A dire il vero penso che questa sarebbe stata la mia scelta anche se avessimo avuto un budget da spendere!
Scelto lo stack, restava però il problema di mettere in piedi un server. Come molti di voi sapranno, anche se installato con solo software libero, un server ha comunque dei costi legati all’hardware e alla connettività, il che cozzava non poco con il vincolo del costo zero.
Ebbene, senza TANTO e Andrea, al quale parlai del progetto il giorno dopo la conferenza, l’idea sarebbe rimasta nella mia testa, inespressa nella pratica o, al massimo, sarebbe diventata l’ennesima demo in “localhost” sul mio computer.
Il server, alla fine, ce lo ha messo TANTO! Un hosting non da poco, con PostGIS e GeoServer belli e pronti, Apache e PHP per creare pagine web e, soprattutto, persone competenti a gestire l’infrastruttura.
A questo punto, con i dati che iniziavano a prendere forma ed il server pronto ad accogliere l’applicazione, per me era finalmente ora di entrare nel vivo e tirarmi su le maniche per produrre qualcosa di tangibile da mostrare a Vincenzo e al CSC che, nel ripulire, organizzare e armonizzare i dati storici, avevano passato parecchi giorni a lavorare.
Così all’inizio del 2012 venne fuori il primo output, un’applicazione di web mapping strutturata in maniera abbastanza classica e in grado di mostrare i punti dove erano stati effettuati i rilievi sugli animali spiaggiati e le informazioni ad essi associate su una mappa, una griglia ordinabile e dei grafici. Scegliemmo di chiamarla GeoCetus.

GC_webmap

I dati potevano essere filtrati su base annuale, adeguando le tre viste di conseguenza. Selezionando un punto, come lecito aspettarsi, compariva una scheda con tutte le informazioni di dettaglio ed era possibile scaricare tutti i dati disponibili in formato KML e CSV, ovviamente sotto licenza CC BY-SA. Nulla di eclatante, insomma, ma funzionale.
Questa prima versione si basava su una sola tabella PostGIS, denominata “spiaggiamenti”, un po’ di codice PHP per tirare fuori un GeoJSON – preferii non scomodare GeoServer in prima battuta – e la mia collaudata cassetta degli attrezzi JavaScript composta da OpenLayers 2.12, jqGrid e Google Charts.

Un buon inizio, ma serve sempre qualcosa in più

L’applicazione di web mapping prodotta non era male, nel senso che faceva quello che doveva fare in base ai requisiti concordati con il CSC e lo faceva discretamente: mostrava i dati e consentiva di interrogarli e scaricarli.
Ben presto, però, sorse la necessità di aggiornare la banca dati in modo che fosse sempre attuale ed utile, così pensai di ricorrere ad un foglio di calcolo su Google Drive. I nuovi dati sarebbero stati inseriti lì e poi, tramite uno script Python, trasferiti in PostGIS con una query SQL.
Lo script funzionava senza particolari problemi, però lasciava irrisolte due questioni importanti:

  • vincolare alcuni campi ad un dominio specifico di valori;
  • calcolare automaticamente il codice identificativo di ogni evento registrato, il quale doveva seguire uno schema preciso per non violare il vincolo di univocità.

Probabilmente lavorando un po’ di più allo striminzito script Python che avevo prodotto si sarebbe potuta trovare la soluzione ad entrambi i problemi, ma ho preferito creare qualcosa che girasse completamente sul nostro server e sviluppare un modulo gestionale in PHP con interfaccia basata sull’ottimo Twitter Bootstrap (all’epoca la versione stabile era la 2.3.2). Dopo qualche giorno di lavoro venne fuori il prototipo del modulo gestionale:

GC_manager

Questo modulo, accessibile solo agli utenti registrati sul database, costituiva uno strumento di facile utilizzo, tramite il quale chiunque poteva registrare un nuovo spiaggiamento senza incappare in errori grossolani, di distrazione e senza doversi preoccupare del codice di registrazione, che veniva compilato in automatico dal modulo stesso, sulla base delle regole stabilite.
Problema risolto? Certo che no! Le esigenze, man mano che GeoCetus e il suo modulo gestionale venivano utilizzati, divenivano ben maggiori del semplice consultazione e inserimento di nuovi dati. Occorreva spesso correggere o cancellare qualcosa e sarebbe stato bello anche poter allegare dei file per caratterizzare meglio i rilievi registrati.
Inoltre, nel frattempo, era saltata fuori anche la necessità di gestire i dati sulle tartarughe marine.
Come spesso accade, l’appetito viene mangiando.

GeoCetus diventa un portale

Per organizzare al meglio tutti le funzioni e i moduli previsti la cosa migliore era, sicuramente, ripensare l’applicazione in forma di un portale, così, dopo qualche mese di lavoro e svariati aggiornamenti a librerie e script vari, il risultato è quello che tutti possono vedere puntando il browser a questo indirizzo: http://geocetus.spaziogis.it.

GC_portal

Il portale prevede diverse tipologie di utenti, che hanno prerogative diverse sulla gestione dei dati e degli allegati. Ad ogni evento inserito sotto forma di punto è possibile associare fino a 3 foto e 3 documenti in formato PDF relativi a necroscopie ed analisi di laboratorio; a breve sarà possibile collegare anche dei filmati. Tutti i contenuti sono aperti, distribuiti sotto licenza CC BY-SA e messi a disposizione degli interessati sia sotto forma di servizi OGC che dei più comuni formati di file usati in ambito di geodati.
Ora, piuttosto che annoiarvi con l’elenco particolareggiato delle caratteristiche del portale, vi invito a consultare lo slideshow in calce al post e, soprattutto, a visitarlo in prima persona.
Piuttosto, mi preme dire che, per quanto ne so, ad oggi, quella di GeoCetus è la più completa banca dati sugli spiaggiamenti di cetacei e tartarughe marine dell’intero panorama nazionale, che si tratta di una banca dati libera ed accessibile e che, questo risultato, per quanto sia ancora passibile di miglioramenti, è stato raggiunto da un gruppo di volontari. Abbiamo investito parte del nostro tempo libero per dare vita a un progetto che, speriamo, diventi un riferimento per gli addetti ai lavori e, soprattutto, contribuisca ad innescare un clima virtuoso di collaborazione e condivisione delle informazioni anche da parte di altri soggetti.


L'articolo GeoCetus: la banca dati italiana aperta sugli spiaggiamenti di cetacei e tartarughe marine è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

Dynamick: Pricing table per temi WordPress: la mia libreria

In questi mesi sto sviluppando in nuovo tema WordPress e mi sono imbattuto nel risolvere il problema delle pricing table, ovvero come farle gestire agevolmente all’utente.

La necessità era appunto quella di dare all’utente un’interfaccia backend semplice da utilizzare e versatile, attraverso l’aggiunta delle righe e colonne senza limiti. L’altro requisito era quello di generare un codice HTML in linea con quello del tema HTML già pubblicato su Themeforest.

Per unire un’UX agile e la plasticità dell’output ho analizzato in rete i plugin disponibili per capire la strada da seguire: riutilizzare un plugin già fatto o cominciare lo sviluppo di una mia libreria. Ho trovato un buon plugin “Pricing Table” di WpEden e ho usato la sua versione free come base di sviluppo.

Da plugin l’ho trasformato in libreria da includere nella functions.php con il seguente codice:

/* Include Pricing table library */
include_once('inc/pricing-table/pricing-table.php');

L’intera libreria in questo caso l’ho aggiunta all’interno del mio tema nella cartella inc/pricing-table

L’interfaccia backend si presenta inizialmente come un nuovo post-type “pricing table”, dove vengono elencati i listini già creati con il loro shortcode da inserire nel post.

pricing-table-backend-1

La cosa interessante appare quando si modifica un listino prezzi. Gli autori di wpeden hanno creato un meta-box ad-hoc per gestire le righe e le colonne e il listino “speciale”, che solitamente viene evidenziato in qualche modo.

pricing-table-backend-2

Come si vede dallo screenshot qui sopra, i bottone “Add Package” e “Add Feature” consentono di estendere il listino per adattarlo alle proprie esigenze.

Questa versione è pensata per sviluppatori di temi WordPress, quindi la libreria genererà semplicemente l’HTML, mentre le direttive di stile dovranno risiedere nel foglio di stile principale del tema, style.css.

Trovate il codice nel repository github che ho creato appositamente. Aspetto i vostri commenti e soprattutto il vostri pull-request.

geomaticblog.net: III Edición Geocamp ES

A través de Geoinquietos Sevilla

El próximo 20 de junio se celebrará en Sevilla la tercera edición de la versión española de la Geocamp este año organizada por Geoinquietos Sevilla.

¿Qué es una Geocamp?

– Una desconferencia sobre temática GEO y software libre.
– Evento basado en el concepto de Barcamp y que se viene celebrando desde hace tiempo en Portugal.

El mundo de las tecnologías de la información geográfica (TIG) y el software libre está teniendo cada vez más peso en el mundo en que vivimos, tanto desde el punto de vista personal como profesional. Muestra de eso, en últimos años, se está generando un movimiento muy significativo formado por gente con grandes inquietudes sobre estos temas, a la par que están apareciendo cada vez más  profesionales del sector que participan en proyectos y jornadas de carácter nacional e internacional.

A partir de una de estas participaciones, concretamente en la Geocamp del año 2012 en Campo Maior (Portugal), nace la idea de crear un evento similar aquí en España, donde compartir experiencias y conocimientos sobre temas geo y software libre. Aquí está el germen de la Geocamp española.

Organizada por un grupo de Geoinquietos y apoyados por un conjunto de empresas e instituciones, la Geocamp es un evento con formato desconferenciaque intenta favorecer la participación y la colaboración, puesto que serán los propios participantes de la Geocamp los que conformen el programa de charlas el mismo día de su celebración, justo antes de comenzar. Por supuesto, está garantizada la participación de grandes nombres del mundo del software libre y de la geomática a nivel nacional e internacional.

La Geocamp 2015, que viene precedida de sus anteriores ediciones, realizadas en La Coruña y Vigo, respectivamente, se celebrará en el Parque del Alamillo, parque metropolitano que discurre entre el municipio de Santiponce y la propia ciudad de Sevilla y es de acceso libre (previo registro) y gratuito. Además, se ofrecerá a los asistentes coffe break y almuerzo para reponer fuerzas, regalos, etc., así como alguna sorpresa final. Todo esto gracias a los patrocinadores del evento.

Patrocinadores III Geocamp.es

Para estar atentos a todas las novedades sobre la Geocamp 2015 está disponible su portal web (http://geocamp.es/) y el blog de Geoinquietos (http://geoinquietos.blogspot.com.es/), así como sus perfiles de Twitter y Facebook.

Página de registro: http://geocampes2015.eventbrite.es/

¡Os esperamos en Sevilla!

Fuente de la foto original: https://flic.kr/p/ambxAZ


Archivado en: eventos

neogeo: Rien que pour vos yeux…

Jeu de données attendu depuis longtemps par tous les aficionados de la cartographie statistique, les Contours… IRIS® de l’IGN sont désormais disponibles en licence ouverte. Oui, c’est ouvert mais c’est une marque déposée de l’INSEE comme l’indique la base de données de l’INPI. D’où le ®. Ce qui est rigolo, c’est que les trois points de suspension après Contours font partie intégrante de la marque. On peut le voir comme pour souligner le côté flou ou flottant de ces contours, dont on aurait du mal à cerner les limites. Et c’est vrai que quand on creuse un peu le sujet, on se pose vite des questions.

Pour ceux qui n’auraient jamais été dessillés sur le sujet, reprenons un peu la généalogie de ce jeu de données (oui, je parle comme j’INSPIRE maintenant). Les IRIS sont des subdivisions communales construites par agrégations d’îlots (voir la documentation officielle) à vocation de représentation statistique plus fine que la commune. Ils ont été définis par l’INSEE pour le recensement de 1999, et ont porté alors à l’occasion le joli nom d’IRIS2000 (c’était l’époque où on regardait encore K2000 à la TV, et le directeur de la statistique de l’époque était fan de David Hasselhoff, qui fait d’ailleurs son grand retour actuellement avec son clip True Survivor que je conseille à tous, même s’il faut se fader 30 secondes de pub avant d’en profiter). Bref, pour les communes de plus de 10000 habitants et certaines de plus de 5000, l’INSEE établit donc des subdivisions, calées sur la voirie avec donc des délimitations genre « de la droite de la Rue du Marteau entre les n° 12 et 146 à la gauche de la Rue du Sabot, ce qui rend franchement agréable le travail de numérisation. C’est pour cela que ce jeu de données était revendu par quelques officines seulement qui, partant du fait que le boulot était éminemment pénible et qu’il s’adressait essentiellement à des activités de géomarketing où on se fait de la thune, le faisaient payer plus cher que l’ArcMap (pas de ® ici, vous pouvez aller déposer la marque) qui servait à les visualiser.

Comme à chaque fois qu’un jeu de données dépend d’un autre (ici la voirie), son cycle de vie devient un peu compliqué. Car si la description des IRIS donnée par l’INSEE ne change pas, leur représentation graphique dépend de la base de données voirie utilisée. Certes ce sont principalement des axes importants qui servent de limites, mais des différences subtiles peuvent exister entre bases voirie, et perturber le bon déroulement d’un géocodage à l’IRIS par exemple si on n’utilise pas la même base voirie pour travailler. Et comme évidemment les IRIS ont été régulièrement révisés pour s’adapter aux évolutions démographiques, il faut co-utiliser les bonnes versions chaque.

On ne peut donc que se réjouir de l’ouverture de cette donnée, et sachant ce que nous savons, nous intéresser à sa généalogie dans la documentation fournie. On y apprend (paragraphe 1.3.1) que la géométrie provient d’un GEOROUTE®, recalé sur un référentiel proche du RGE® IGN (mais pas tout à fait le RGE donc) et enfin généralisé. Les communes non subdivisées sont issues du GEOFLA® comme les limites des communes subdivisées pour garantir la cohérence du tout. Il est donc par ailleurs précisé que « La géométrie des contours d’Iris étant issue d’une généralisation des limites fournies par l’INSEE, les requêtes spatiales fines à l’adresse ou au bâtiment doivent être effectuées avec Iris… GE (Grande Échelle), produit IGN compatible géographiquement avec la précision de ces données. » On vous explique donc que pour du travail de précision il faudra plutôt utiliser un autre produit, ce qui peut sembler de bonne guerre puisque c’est la précision qui fait la valeur. La documentation IGN est d’ailleurs fort bien fait puisqu’elle illustre l’étape de généralisation par cette image :

Exemple

On y comprend que la source IRIS… GE proposée en bleu est transformée en Contours… IRIS® montrée en rouge après un bon exercice de généralisation. Tout est donc clair.

Sauf que… Quand on récupère le jeu de données (qui est en fait une collection composée de jeux départementaux préalablement regroupés par régions désignées par leur code. Il va falloir réviser la nomenclature) et qu’on l’examine, on y trouve des géométries plutôt similaires à IRIS… GE et donc non généralisées :

Iris... Contours

On est donc tenté de superposer tout ça avec les limites de communes issues du GEOFLA®, pour voir… que rien ne colle…

GEOFLA

Alors on inspire un grand coup, et on va voir un vieil épisode de K2000 parce que tout ça est finalement bien trop compliqué pour nous. Mais on a hâte que grâce à l’OpenData le citoyen lambda prenne son destin en main et utilise toutes ces données à bon escient…

 

MISE A JOUR DU 7 MAI 2015

L’IGN vient de mettre en ligne une version 2.0 des Contours… IRIS® 2014 avec des géométries parfaitement alignées sur celles du GEOFLA Communal. On peut donc féliciter l’IGN pour sa réactivité et se précipiter sur le nouveau jeu de données ! Autre amélioration, plus pratique : les différents shapefiles départementaux sont désormais tous dans le même répertoire et non plus classés par code région, ce qui rend beaucoup plus facile leur manipulation.

iris

neogeo: Un petit peu de Docker

Docker est sous les feux de la rampe depuis maintenant un an et demi environ. Après l’engouement des early-adopters, toujours prompts à porter au pinacle une nouvelle technologie et à l’abandonner aussi facilement pour une autre quelques temps après, il est sans doute temps de prendre un peu de recul et essayer de comprendre comment marche Docker et à quoi il peut bien servir.

Qu’est-ce que Docker ?

Commençons par dire ce que Docker n’est pas ! Ce n’est pas une technologie de virtualisation à proprement parler, ça ne permet pas de créer des machines virtuelles, mais des containers. La différence fondamentale tient à ce qu’une machine virtuelle s’exécute sur une abstraction de la couche physique, exposée par la couche de virtualisation et lui faisant par exemple croire qu’elle dispose d’un CPU, de 4 Go de RAM et de deux interfaces réseau alors que le serveur physique sous-jacent est très différent. La containerisation est un peu différente puisqu’elle résulte de l’isolation d’un ensemble de ressources (CPU, mémoire…) et de process qui le rendent complètement étanche à son environnement direct, le système hôte, dont il partage uniquement, mais c’est une différence importante avec les système de virtualisation, le kernel (noyau).

Ceci est illustré sur le site officiel de Docker par les schémas suivants :

vmSchéma avec Docker

On peut y voir à gauche l’empilement classique d’un hôte de virtualisation, avec un hyperviseur exposant aux VM les ressources sélectionnées. A droite, la couche « docker engine » est plutôt une couche d’orchestration et de référencement de containers fonctionnant de manière isolée sur l’hôte principal dont il partage le noyau. Docker ne fonctionne donc nativement pour l’instant qu’avec Linux, de même que les containers ne peuvent contenir que des logiciels Linux. Dans le container, on va donc trouver toute la pile applicative nécessaire au fonctionnement de l’application voulue, depuis les librairies système (glibc par ex.) jusqu’aux exécutables finaux.

Plus qu’une technologie, un écosystème.

Jusqu’à présent, la description ainsi faite de Docker pourrait avoir été presque identique s’il s’était agi de LXC, la technologie Linux sous-jacente sur laquelle Docker s’appuie. Sauf que si Docker a du succès, c’est un peu comme GitHub car il a su mettre en place un écosystème complet autour de sa technologie. En effet, sur le site docker vous trouvez des images vous permettant de lancer très facilement des containers pré-configurés de WordPress, ElasticSearch, MySQL, PostgreSQL. Ainsi, il suffit de lancer une commande simple de type « docker run -d neogeo/mapserver » pour lancer une instance de MapServer 7.1 configurée par nos soins sur votre système, isolée du reste de votre OS, mais accessible par le port prédéfini 80 (que vous pouvez aussi mapper vers un autre port de votre hôte). L’interpréteur docker vous permet ainsi de lancer des containers, de les arrêter, d’en construire vous-même et de les publier sur le dépôt central.

Dès lors, il est très facile de trouver des images intéressantes, de les tester, voire de s’appuyer dessus pour en construire de nouvelle. Car Docker a ceci de particulier qu’il référence le contenu des containers en une multitude de couches, les Layers, qui sont partageables entre plusieurs instances de containers. De la sorte, si vous lancez trois Docker Ubuntu, l’image elle-même et ses centaines de Mo ne sera pas répliquée trois fois sur votre système, mais utilisée à partir de la même origine. Donc économie d’espace, et surtout, dès que l’image a été récupérée une fois, lancement instantané des nouveaux containers.

OS ou pas OS ?

C’est une question existentielle qu’on se pose assez rapidement après avoir essayé Docker. Quand on voit toutes ces images Ubuntu, Debian ou CentOS, on s’interroge légitimement… Pourquoi charger un OS, on m’avait dit que Docker s’appuyait sur celui de l’hôte ? En effet, mais uniquement à bas niveau, sur le kernel. Dès lors, il faut quand-même installer dans le container tout ce qui permet au système de fonctionner (librairies diverses, applications de bas niveau telles que bash…). Et c’est donc des OS simplement allégés de leur kernel qu’il s’agit de déployer à l’intérieur des containers. Ce qui explique les différentes déclinaisons des principaux OS Linux, ou même de dérivés spécialement dédiés à Docker tels que CoreOS. Il y a aussi une distribution dédiée à la machine hôte (celle qui héberge les dockers), RancherOS.

Configuration

La configuration d’un modèle de container se fait via un fichier nommé Dockerfile, qui contient les différentes instructions de construction, depuis l’image de base (OS) à utiliser jusqu’aux composants à y installer et aux options à spécifier. Certaines configurations peuvent être très complexes, et il sera nécessaire à chacun de bien s’immerger dans le sujet afin de commencer à la maîtriser. D’excellentes ressources sont évidemment disponibles sur le web (mais sont parfois contradictoires quant à certaines méthodes d’optimisation, preuve que le sujet est vraiment neuf) et le meilleur point de départ est sans doute le site Docker lui même et ses dockerfile best practices.

Repenser les architectures

Au-delà des aspects techniques de son utilisation, Docker enjoint à s’interroger sur les architectures à mettre en place. La vocation assumée de Docker est en effet de faire tourner des micro-services. A la différence de machines virtuelles dans lesquelles on va reproduire ce qu’on aurait mis dans une machine physique (un serveur web, différentes applications et modules), le mode Docker incite à découpler tout ce qui peut l’être. Pour une simple application web, on peut par exemple utiliser 3 containers différents : un pour le serveur web et l’application proprement dite, un pour un serveur de base de données, un pour les données de la base de données, de manière à pouvoir mettre à jour et manipuler chacun des containers sans impacter les autres aspects de l’architecture. Vu la facilité associée de déploiement des containers, et de chaînage des containers entre eux, on est vite conduit à décomposer l’architecture applicative, à la déconstruire pour se diriger vers un ensemble de micro-services distribués. L’API part ici, l’admin par là, autant de containers différents pour des rôles applicatifs différents, avec l’avantage notable de faciliter les mises à jour différenciées et l’isolation de certains services.

Pour bien illustrer ce propos dans le contexte géomatique, on peut se pencher sur des services WMS/WFS. En appliquant les principes de Docker, on va pouvoir composer des containers dédiés à un service en particulier. Si on utilise MapServer, exemple pris au hasard, on peut très bien avoir 1 container pour 1 instance nginx + mapserver + 1 mapfile (qui peut par ailleurs être partagé sur la machine hôte de manière à être facilement modifiable par l’administrateur, ou partageable avec un autre container). Ainsi on fait glisser la sémantique applicative de « serveur OGC » à « services OGC », indépendants les uns des autres, même s’ils partagent un même modèle initial de container.

Conclusion

Les technologies de containerisation, et Docker en particulier, sont récentes et encore immatures par certains aspects. Mais elles bénéficient d’un développement très rapide (il est très difficile de suivra l’actualité de Docker tant l’effervescence est grande sur le sujet) et de nouveaux outils de plus haut niveau de configuration ou d’orchestration (Docker a récemment dévoilé Compose et Machine) permettent de s’affranchir de la relative rusticité des outils de base en travaillant à un niveau d’abstraction plus élevé. Un sujet à suivre, de toute évidence, car au moins autant que la virtualisation en son temps il porte les germes de pratiques réellement innovantes.

 

geomaticblog.net: Dear OSM, just chill out.

This is kinda a reply to Gary Gale’s “Dear OSM, it’s time to get your finger out“. The more I read that, the less sense it makes to me.


Update 2015-04-30: Read also Richard Fairhurst’s Realpolitik and the OpenStreetMap License and Simon Poole’s Is OSM business unfriendly?

I think of myself as a Linux nerd. I consider myself a hacker. And I’ve spoken so many times about open/libre licensing in conferences the issue became boring.

A couple of years ago, a psychologist asked me a question as part of a job interview: What makes you angry?. And my response was clear: Things not working and logical fallacies. So my brain hurt a little when I read these particular sentences in Gary’s blog post:

There are really only three sources of global mapping […]: NAVTEQ, TeleAtlas , and OpenStreetMap. […]

Surely now is the moment for OpenStreetMap to accelerate adoption, usage and uptake? But why hasn’t this already happened?

See, a tiny part of my brain screams “fallacy“. «OpenStreetMap has things in common with NAVTEQ and TeleAtlas, ergo it has to play in the same field and by the same rules as NAVTEQ and TeleAtlas».

Maybe OSM was given birth by SteveC to cover the lack of affordable datasources, and then a way for him and his VC-fueled CloudMade to compete with them. But for me and a whole lot of nerds, OSM basically was, and still is, a playground where we can run database queries all night long. OSM is a wholly different animal.

In 2010 I argued that Geo businesses and Geo hackers are playing the same game, but with different goals, which makes for an interesting game; a game in which it would be foolish to think that the opponent will play for the same goal as you. You have to play this game to maximize your score, which is not a synonim of decreasing the opponent’s score.

In other words: when I put something into OSM, I don’t frakking care what happens to NAVTEQ or TeleAtlas. The same way when I cook something for friends I don’t care what happens to the local pizza joint.

See, maps are an infrastructure. In Spanish GIS circles, specially those around the Spanish NSDI, cartography is often called “the infrastructure of infrastructures” You need maps to plan roads, power lines, land zoning. You need stupidly accurate maps to collect taxes based on how many centimeters square your house has, or to give out grants based on exactly how many olive trees you own.

During the late 2000’s I heard a lot of criticism about OSM. But most of it didn’t come from data-collecting companies – it came from public servants. “Volunteers use cheap GPS with low accuracy, OSM will never be accurate”, they said. “The OSM data model cannot be loaded into ArcGIS and won’t be of any use”, they said. “OSM data will never be authoritative”, they said. And a few years later, this happened:

That, right there, is the Guardia Civil (who are public servants) in a freakin’ control room using OSM for freakin’ pan-european coastal border patrols. Which means OSM is a freakin’ de facto infrastructure for sovereignty.

Fact is, government agencies play a wholly different game than commercial providers. The goal of a govt’ agency (and specifically those which maintain infrastructures) is to provide a service to citizens, not to make money. As a thought exercise, think about the public servants who place the border milestones, or the ones checking road surface quality, and guess how many fucks they give about NAVTEQ or TeleAtlas.

OSM is about the ownership of infrastructure. It’s about the efficiency of copyright law. It’s all about the digital commons, dammit.

And this is where I kick a wasps’ nest by turning this post into a political one.

A capitalistic liberal will argue that infrastructure is better handled by competing private entities, renting it to citizens for a fee. But remember, I’m a Spaniard, and that means that I’ve seen infrastructures such as power lines, water companies, telcos, motorways, airports and banks privatized under the excuse of theoretically running more efficiently in private hands. We have a nice word for what happened in the real world: “expolio“, which english-speakers might translate as “plunder”.

Thanks but no, thanks. I want infrastructures to be as close to the commons as possible. Maybe it’s because I now live in the land of the dugnad, and my bias makes me see maintaining the commons as beneficial for the society as a whole.

So when you look at OSM (or at the Wikipedia, for that matter) you’re really looking at a digital common good. Which puts OSM in the same basket as other digital common goods, such as programming languages, the radioelectric spectrum, technical RFCs, or state-owned cartography. Now go read the tragedy of the digital commons.

It’s sad to live in a world where the money-making is held above many commons, even at the expense of the commons. Fortunately it’s difficult for a private entity to pollute air, water or the radioelectrical spectrum without going unnoticed, but unfortunately copyright law cares next to nothing about intellectual commons.

<rant>Please, someone explain to me how giving me intellectual ownership of something I thought about until 70 years after my death makes me think about better things; then explain to me how that reverts into the common good. </rant>


TL;DR: Dear OpenStreetMap: just chill out and don’t listen to what they say. Corporations may come and go, but a common infrastructure such as you is here to stay.


Archivado en: opinión

年会費無料のETCカードってあるの?: シェル スターレックスカードについての判断

昭和シェル石油をガソリンスタンドとして利用しているならシェルスターレックスカードはとてもお勧めです。

 

シェルスターレックスカードを使えばガソリン代をキャッシュバックしたり自分の欲しい商品に交換したりできます。

なので昭和シェル石油を利用しているならシェルスターレックスカードを作らないとむしろ損かもしれません。

 

他にもいいところが沢山あります。

まず初年度は年間費がかかりません。

 

2年目以降は1,350円がかかってくるのですが、スタープライズコースを選択していて年間24万円以上利用していると年会費を無料にすることができます。

後はニコスのサービスが付帯されており保険や優待割引などを受けることができます。

 

それに毎月10日と20日は1.5倍の値引きをしてくれるのでこの日に給油すればかなりお得になります。

ただシェルスターレックスカードには残念な点もあります。

 

それは他社と値引き額を比べるとあまりいい数字ではないという点です。

毎月給油する日を考えて、なおかつ年間費を無料にするために24万以上を利用してガソリン代のキャッシュバックも受ければ他社と比べても何の見劣りもありませんがそういったサービスを受けずにただ利用するとなるとあまり魅力的ではないかもしれません。

 

ですが24万円以上というのも普段の支払いなどをこのカードで行えば簡単に達成できる金額だと思いますしガソリン代のキャッシュバック等もスタープライズコースを選択していれば簡単に受けることができるので、特に難しいことではありません。

なので総合的に見ると持っていた方がいいと言えます。

Dynamick: Wiko Ridge 4G: la recensione di dynamick.it

Abbiamo avuto modo di provare il nuovo Wiko Ridge 4G, uno smartphone che mette insieme potenza di calcolo, eleganza e un prezzo contenuto.

Wiko Ridge 4G è un gioiellino europeo, per la precisione francese di cui poter andar fieri. E’ un modello di ultima generazione, già 4G, ed è tagliato per chi pretende buone prestazioni e non vuole spendere un patrimonio.

ridge-peso

Caratteristiche

Comincio elencando le caratteristiche oggettive principali:

  • CONNETTIVITÀ: 4G LTE 800/1800/2100/2600 MHz
    H+/3G+/3G WCDMA 900/1900/2100 MHz
    GSM/GPRS/EDGE 850/900/1800/1900 MHz
  • SISTEMA OPERATIVO : Android™4.4.4 (KitKat)
  • PROCESSORE : Qualcomm Snapdragon 410 MSM8916, Quad Core 1,2 GHz, Cortex A53
  • SIM CARD : 1 Micro SIM + 1 Nano Sim o Scheda SD
  • DESIGN : Soft touch con effetto pietra
  • COLORI DISPONIBILI : Nero/Silver, Nero/Bleen, Nero/Clementina, Bianco/Gold
  • DIMENSIONI : 143*72*7.5 mm
  • PESO : 125g (con batteria)
  • BATTERIA : 2400 mAh Li-Po
  • STANDBY : Fino a 247 ore
  • AUTONOMIA IN CONVERSAZIONE : Fino a 14,66 ore (3G), fino a 17 ore (2G)
  • ROM : 16 Gb
  • RAM : 2 Gb
  • MEMORIA ESPANDIBILE : Fino a 64 Gb con Micro SD
  • ACCELEROMETRO :
  • BUSSOLA (MAGNETOMETRO) :
  • RILEVATORE DI PROSSIMITÀ :

Le nostre impressioni

La leggerezza del dispositivo è la prima caratteristica che si apprezza non appena lo si prende in mano: solo 125 g per un dispositivo di medie dimensioni (5″ di display) contro i 137g di un iPhone 4 di 3,5″.

La fluidità e la prontezza di risposta rendono davvero divertente l’utilizzo di Ridge 4G. Tutto questo grazie al suo super processore  Snapdragon quattro core 64-bit a 1,2GHz con ROM a 16Gb già pronto per la prossima release di Android, il Lollipop.

Altra caratteristica da segnalare è il display da 5 pollici con risoluzione 1280×720 pixel molto ben definito e dai colori brillanti e protetto dal vetro Corning® Gorilla® Glass 3 anti graffio. Messo a confronto con il OnePlus One (smartphone che consideriamo tra i top gamma del momento) il Ridge 4G ha una marcia in più, con bianchi più intensi e maggiore profondità di colore.  Abbiamo apprezzato la qualità del display, punto dolente in smartphone di questa fascia, perché spesso i produttori tendono a risparmiare su questo importante componente per abbassare il costo.

wiko-ridge-scocca

Curiosa è la scelta dei materiali della scocca perché è la stessa del OnePlus One SandStone. Viene chiamato Soft Touch con effetto pietra, un materiale simile alla pietra pomice, con un effetto al tocco simile al velluto, sensazione particolare e interessante. Anche in questa scelta si nota nessuna rinuncia qualitativa.

La fotocamera ben si abbina al display: si tratta di una Sony da 13 megapixel con flash Philips. Provate ad indovinare? E’ stesso sensore del OnePlus One. Neanche a dirlo, le foto danno grosse soddisfazioni a chi pretende ottimi risultati. Queste alcune foto scattate in modalità macro, primo piano e HDR (abbiamo dovuto ridurre le dimensioni, da 4160×3120 pixel a 1024×768 pixel e comprimerle per poterle pubblicare sul web):

Macro Primo Piano HDR

Tra le limitazioni che abbiamo notato, troviamo in primis una dotazione scarsa di RAM, solo 2GB. Il produttore evidentemente ha risparmiato sulla memoria, ma ha anche pensato di lasciare all’utente la possibilità di poterla espandere utilizzando il secondo slot della dual-sim per poterci installare una microSD al posto della nano SIM.

Prezzo e dove si compra

Wiko Ridge 4G sarà disponibile sul mercato da marzo e si potrà trovare nei negozi delle più grosse catene italiane (MediaWorld, Trony, Euronics, Expert). Il prezzo consigliato è di 229€. Se avete bisogno di cambiare smartphone vi consigliamo di valutarlo, magari andandolo a provare: non vi deluderà, garantito!

geomaticblog.net: Mapping Party en Poio, Pontevedra

El sábado 11 de abril en el Centro Xaime Illa de Raxó (Poio) llega la fiesta de las fiestas, la Mapping Party Poio’15 con el objetivo de pasarlo bien mientras aumentamos los datos geográficos de la costa de Poio con una licencia libre.

http://www.openstreetmap.org/export/embed.html?bbox=-8.757382929325104%2C42.403051783861024%2C-8.752903640270233%2C42.40485013856018&layer=mapnik&marker=42.4039509676542%2C-8.755143284797668

Este taller está organizado por la asociación de software libre Xeopesca y cuenta con la colaboración del Concello de Poio y las asociaciones SCD Raxó y ACDeM Armadiña.

Horario

  • 10:00-11:00 Presentación de OSM, organización de equipos para la zona a cartografiar.
  • 11:00-14:00 Trabajo de campo con explicaciones de como emplear osmAndroid.
  • 14:00 -16:00 Comida.
  • 16:00-20:00 Trabajar con las computadoras para el volcado de los datos OSM
  • 20:00-20:30 Clausura del curso.

Asistentes

El número de asistentes será de 25. La selección de los candidatos se realizará por orden de inscripción. Se recomienda la disposición de cualquiera de los siguientes dispositivos:  GPS, teléfono con GPS y cámara digital.

Formulario de Inscripción

Para inscribirse a Mapping Party Poio’15 cubre el formulario. (ver aquí) (poio.xeopesca.gal) .

Material fungible

Se hará entrega a cada uno de los asistentes de un bloc de notas, un bolígrafo y un lápiz.

Redes SociaLes

Establecemos el hashtag #mappingpartypoio para seguir el evento a través de las redes sociales. Además también puedes seguir la  Mapping Party Poio’15 a través de twitter mediante el hashtag #mappingpartypoio o en la  página de facebook de XeoPesca.

 

SITIO WEB OFICIAL

http://poio.xeopesca.gal/

 


Archivado en: GIS

geomaticblog.net: EMT Madrid, or Open Data antipatterns

Today, february 21st 2015, is the Open Data Day. And given that I’m far asay from my favourite Open Data nerds down at the Medialab Prado, I decided to work on giving the old ¿Cuánto Tarda Mi Autobús? website a facelift.

The story behind ¿Cuánto tarda mi autobús? is rather simple. A couple of years ago I got my first smartphone, and one of the things I wanted to do is check for the bus times in Madrid. Back then, EMT Madrid (the public company which runs the buses) was heavily promoting its new website in the Spanish GIS scene. The major problem was that the website for checking the times was made with Flash (actually, with ESRI Flex) and simply there is no way to use that with a smartphone.

So I reverse-engineered the protocol (if you call “reading a WSDL document” reverse engineering), did a bit of PHP plus Leaflet, and I was able to check the bus times with a web app.


 

Fast-forward to the present. EMT had released the API details under the banner of «Open Data EMT», I had a saturday to devote to the Open Data Day, and my little web app needed some love after two years of no updates at all.

But, oh boy, every time I try to develop anything with interfaces made by big subcontractors, I cannot stop cringing at the amount of WTF found around.

The antipatterns

Antipattern 1: «Open Data» which isn’t actual Open Data.

In the same way that Open Source software can only be Open Source if it meets the Open Source Definition, Open Data is only Open Data if it meets the Open Definition. Period. These definitions are evolved versions of the DFSG and Free Software Definition, curated with years of experience and discussions about what is open and what is not.

So, the Open Definition states:

2.1.8 Application to Any Purpose

The license must allow use, redistribution, modification, and compilation for any purpose. The license must not restrict anyone from making use of the work in a specific field of endeavor.

From «OpenData EMT»’s terms and conditions:

1. The re-user agent is explicitly prohibited from distorting the nature of the information, and is obliged to:
a. Not to manipulate nor falsify the information.
b. Ensure that any information displayed in your system is always up to date.
c. Not to use the information to undermine or damage EMT’s public image.
d. Not to use the information in sites that might lead to a relation with illegal acts or attempts to sabotage EMT or any other entity, organization or person.

So apparently I cannot:

  • Display historical information (because my data must be up-to-date).
  • Say that the system is a complete piece of steaming crap from a technological point of view.
  • Use the information in sites such as Facebook or Twitter, because those sites might be used for an attempted sabotage to «any entity or person». Who the fuck wrote this blanket clause, folks?

Please, don’t call it «Open Data».

I have to give praise to the EMT, though. The previous version of the agreement obliged the reuser to not disclose that he/she signed an open data agreement. At least they fixed that.

Antipattern 2: Your SOAP examples contain raw XML.

The whole point of SOAP was to abstract data access. And, still, every public SOAP interface I’ve ever seen includes examples with raw XML fragments that you’re supposed to build up.

If you cannot write code that access SOAP without writing XML, you’re doing it wrong.

Think about how WMS interfaces work nowadays: you just publish the WMS endpoint, and your GIS software takes care of the capabilities and the

Antipattern 3: Keep default fake values in your production code.

From the docs:

tempuri

Note «tempuri.org». A quick search will tell you that the system was designed using Visual Studio, and some lazy so-called software engineer didn’t bother to change the defaults.

Antipattern 4: Fuck up your coordinate systems

Note to non-spaniard readers: The city of Madrid is located roughly at latitude 40.38 north, longitude 3.71 west.

Now look at this example from the EMT docs about how bus coordinates are returned:

positionbus

Antipattern 5: Mix up your coordinate systems

Write things like “UTM” and “geodetic” in your documentation, but do not write which UTM strip you’re referring to (hint: it’s 30 north, and the SRS is EPSG:23030). Make some of your API methods to return coordinates in EPSG:23030 and some others to return coordinates in EPSG:4326.

And for extra fun, have your input coordinate fields accept both of those SRSs as strings with comma-defined decimal point, and then do this in the documentation:

coordinateint

Antipattern 6: Self-signed SSL certificates

Srsly?

sslcert

Antipattern 7: Wrap everything up in HTTP + JSON and call it “REST”

REST is a beautiful technology because it builds up pretty much on top of raw HTTP. Every object (“resource”) has its own URI (“universal resource identifier”), and the HTTP verbs are used semantically (GET actually gets information, POST modifies information, DELETE deletes a resource, and so on).

Also, HTTP status codes are used for the return status. An HTTP status code 200 means that the data is OK, a 404 means that the resource doesn’t exist, a 401 means that you are not authorized to get/post/delete the resource. Reusing the semantics of HTTP is way cool.

So, in a REST interface for bus stops, the stop number 1234 (a resource) would be located at its URI, e.g. http://whatever/stops/1234. It’s beautiful because the URI has a meaning, and the HTTP verb GET (which is the default when a web browser is fetching something) has a meaning. The server would answer with a “200 OK” and then the resource.

Low-level, it should look like:

GET /stops/1234 HTTP/1.1

-----

HTTP/1.1 200 OK
Content-Type: text/JSON

{
"stopId": 1234, 
"latitude": 40.3,
"longitude": -3.71,
"stopName": "Lorep Ipsum Street",
"lines": ["12", "34"]
}

Now compare the theoretical RESTful way to fetch one bus stop with the real-life mess:

POST /emt-proxy-server/last/bus/GetNodesLines.php HTTP/1.1
idClient=user&passKey=12345678-1234-1234-12345678&Nodes=1234

-----

HTTP/1.1 200 OK
Content-Type: text/JSON

{
"resultCode":0,
"resultDescription":"Resultado de la operacion Correcta",
"resultValues":{
  "node":1234,
  "name":"ROBERTO DOMINGO-AV.DONOSTIARRA",
  "lines":["21\/1"],
  "latitude":40.434861209797,
  "longitude":-3.6608600156554
  }
}

So, meaningless URI, POST request to fetch a resource, duplicated return status codes (for the HTTP layer and some other underlying layer).

Let me say this very, very clearly: In REST, you do not wrap a resource in a call to get that resource. Geez.

My takeaway

Readers will do good to keep in mind that I’m using my spare time in order to participate in the Open Data Day, for fun. The problem is that working with such an arquitecture is no fun at all. I can deal with these kind of enterprisey, Dilbertesque software stacks in a day-to-day basis, but only if I’m getting paid to endure the cringing and teeth-grinding.

I think it’s because the mind of an Open Source / Open Data nerd like me is difficult to understand by the classic propietary software people. I develop software just for the fun of doing so, just because I can, just because I like the feeling of empowerment of creating my own tools.

I write a lot of open source stuff. I fix wikipedia from time to time, I map stuff on OpenStreetMap if something’s wrong. I like to do it, and I empower other people to build upon my work.

Building upon good Open Source/Data doesn’t feel like standing on the shoulders of giants. It feels like standing on the soulders of a mountain of midgets… and if you’re lucky, you’ll be one of those midgets and someone will stand upon your shoulders.

For me, that involves a great deal of humility. When I watch the closed-source crowd talk about their latest product or software, they are congratulating themselves, but when I watch the open-source crowd, they’re constantly critizising themselves. And I can critizise them and they can critizise me and we all learn and that’s why they’re awesome.

</rant>


Archivado en: formatos, geodatos, opinión

Geografitti - nicht nur Geografisches: Neues Projekt 2015: Geography Matters

Ich habe ein neues Projekt. Und ich mache das nicht allein (…aufgeregtes hibbeln…).

Alles weitere gibts direkt auf der nigelnagelneuen Seite http://www.geography-matters.de

Das ist noch eine Baustelle, aber es gibt schon etwas zu lesen. Zum Beispiel (m)ein Essay über das Verhältnis von Realität und Karten im digitalen Zeialter. Und ganz viel dazu, was das alles werden soll. Und meine Mitstreiterin sagt, wenn man in beiden Texten die ersten zwei Absätze überstanden hat, werde es sogar ganz interessant.

Was und ob hier etwas passiert, weiß ich noch nicht. Aber ich glaube die Geo-Themen wandern mittelfristig zum neuen Projekt und hier wird es langfristig ein wenig persönlicher. Anregungen, Kommentare und Kritik dann gerne bei Geography Matters.

 

INSPIRE by clouds: La réforme territoriale, une validation de la politique de partage des données

La réforme territoriale est inquiétante pour tous les acteurs territoriaux du l’information territorialisée. L’incertitude sur les futures organisations et les futures missions est complète sauf, peut-être, en Bourgogne-Franche-Comté. Et la plupart des acteurs se gardent bien de la prise de décision en situation d’incertitude. Quels leviers avons-nous pour faire bouger les lignes et défendre les […]

Geografitti - nicht nur Geografisches: Jahresrückblick 2014

Beste Entscheidung: Der Um- und Ausbau der Wohnung (wegen: viel schöner jetzt)
Schlechteste Entscheidung: Der Um- und Ausbau der Wohnung (wegen: viel ärmer jetzt)

Beste Anschaffung(en): Der Ilve Gasherd mit der runderneuerten Küche drumrum
Dämlichste Anschaffung: Loewe Airspeaker, der entschieden Widerstand leistet, bei dem Versuch, ihn in ein WLAN zu bringen. Vor allem wegen der bescheuerten Hinweise des Herstellers und aus diversen Foren, das Gerät funktioniere per Kabel viel besser. ICH HAB DAS BLÖDE DING ABER WEGEN DER WLAN-FUNKTION GEKAUFT UND DER HERSTELLER WIRBT AUCH DAMIT !!!!!!!!

Bestes Getränk: Neumarkter Lammsbräu Dinkel war meine diesjährige Bier-Entdeckung.
Ekelerregendstes Getränk: Ich mag einfach keinen Glühwein.

Bestes Rezept: Bestimmt irgendwas beim Lieblingsgriechen.
Schlimmstes Essen: Bestimmt irgendwas vom Thai-Imbiss.

Beste Musik: Natürlich wieder mal Tina Dico (“Old friends”) aber es gefiel auch First Aid Kit (“SilverLinings”) und Family of the Year (“Hero”)
Schlimmstes Gejaule: Natürlich dieses Asthmatiker-Hymne, irgendwas mit atemlos. Aber auch Revolverheld haben etwas genervt mit ihrem Energieverschwendungsaufruf

Eigene, schönste musikalische Wiederentdeckung: Dass der Klassiker “Don’t let me be misunderstood” von Nina Simone ist und von den Animals gecovert wurde.
Peinlichster musikalischer Faux-Pas: Ich hab glaub ich irgendwann nach einem WM-Spiel lauthauls Bourani mitgegröhlt. Nunja.

Beste Idee: Die tollen Designer-Fliesen für die neue Küche
Dämlichste Idee: Die tollen Designer-Fliesen für die neue Küche

Beste Lektüre: Ich habe wieder kein einziges Buch gelesen.
Wiederentdeckte Lektüre: Ich habe wieder kein einziges Buch gelesen.
Langweiligste Lektüre: Ich habe wieder kein einziges Buch gelesen.

Zugenommen oder abgenommen?
Es gibt wieder mehr von mir

Haare länger oder kürzer?
Immer noch bezopft. Aber nicht länger.

Kurzsichtiger oder weitsichtiger?
blinder

Mehr ausgegeben oder weniger?
Viel mehr als gedacht, Wie das so ist bei Umbauten im Altbau…

Der hirnrissigste Plan?
Nee, wieder nicht. Ich bin ja sowas von vernünftig.

Die gefährlichste Unternehmung?
Ach, ich fand nichts von dem gefährlich, was ich gemacht hab. Sonst hätte ich es ja nicht gemacht.

Die teuerste Anschaffung: Als Einzelstück das neue Wohnzimmerfenster. Aber der Umbau insgesamt schlägt als zweitteuerste Anschaffung des Lebens zu Buche – direkt nach dem Wohnungskauf selbst.

Der ergreifendste Film?
“Im Labyrinth des Schweigens” und “Das Schicksal ist ein mieser Verräter.”
Verweise für beide Filme auf Kafka: “Im Kino gewesen. Geweint.”

Die beste CD?
Unterm Strich dann “Lights out” von Ingrid Michaelson

Das schönste Konzert?
Wäre mit Sicherheit Ingrid Michaelson im Hamburger Mojo-Club geworden. Ist aber ausgefallen. So ist es die “Hair”-Inszenierung im Bremer Theater.

Die meiste Zeit verbracht mit?
der Frau an meiner Seite.

Die schönste Zeit verbracht mit?
der Frau an meiner Seite.

Vorherrschendes Gefühl 2014?
Satt

2014 zum ersten Mal getan?
Schöffe gewesen, an Urteil mitgearbeitet

2014 nach langer Zeit wieder getan?
Musik-CDs gebrannt und mit dem Büro umgezogen

Drei Dinge, auf die ich gut hätte verzichten können:
Die Keller-Überschwemmung in der Verlängerung des WM-Endspiels
Der Kurzaufenthalt des Juniors im ägyptischen Gefängnis
Der Rettungswagen inklusive Notarzteinsatz. Ich konnte nur mit ganz vielen Unterschriften verhindern, abtransportiert zu werden.

Die wichtigste Sache, von der ich jemanden überzeugen wollte?
Dass so ein Gasherd quasi lebensnotwendig ist.

Das schönste Geschenk, das ich jemandem gemacht habe? Kleine gepunktete Auflaufformen

Das schönste Geschenk, das mir jemand gemacht hat? Das gibts immer dann, wenn die Frau an meiner Seite irgendwo mit mir hingeht, wo sie sonst nie hingegangen wäre und sich dann sehr dafür interessiert.

Song des Jahres: “Someone you love” – Tina Dico

Fernsehserie des Jahres: Nach dem Ende von “Breaking Bad” erst mal ins Loch gefallen. Am ehesten noch die 2. Staffel von “Die Brücke – Transit in den Tod”

Kleidungsstück oder Accessoire des Jahres: Mein im Grunde neuwertiger Lieblingspullver, den der Schneider unverständlicherweise nicht mehr flicken wollte, wegen “lohnt nicht mehr”.

Tier des Jahres: Giraffe. Dass die wirklich große Köpfe haben, merkt man auch erst, wenn der durchs Autofenster kommt.

Wort des Jahres: Aufkantung

Satz des Jahres: “Da ist doch noch ein Schornsteinabzug frei!” (Schornsteinfeger löst Planungsproblem)

Peinlich (andere) 2014: Ich muss feststellen, dass ich mich nur sehr wenig in Fremdschämsituationen begebe. Und jetzt Markus Lanz zu nennen ist ja irgendwie billig.

Peinlich (selbst) 2014: Sag ich nicht. Ist mir peinlich.

Angst 2014: Immer noch rein finanzieller Natur. Schlimmer geworden.

Wutanfall 2014: Siehe dämlichste Anschaffung. Könnte mich schon wieder AUFREGEN!!!!

Persönlicher Höhepunkt des Jahres:
Ich weiß nicht mehr genau, was es war, aber ich hatte recht.

Persönlicher Tiefpunkt des Jahres:
Diskussion mit Rettungssanitätern, für die mein baldiger Tod auf der Toilette scheinbar ausgemachte Sache war

Siehe auch: 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006

GIS Ελλάδα: Παρουσίασεις στο HellasGI συνέδριο στην Αθήνα 11/12 Δεκεμβρίου 2014


Workshop - Πέμπτη 11 Δεκεμβρίου 2014 - 11.00



Συνέδριο Β' - Παρουσίαση - Πέμπτη 11 Δεκεμβρίου 2014 - 14.00


Επίτευχη της διάχυσης γεωγραφικών πληροφοριών στο Δήμο Bretagne Romantique Γαλλίας




INSPIRE by clouds: La fin de la saisie manuelle des métadonnées?

Le principal enseignement de la journée INSPIRE du CNIG a été l’importance première de l’animation. Les trois intervenants du matin, DREAL Poitou-Charentes, Lorient Agglomération et PIGMA, ont tous mis largement en avant l’importance de celle-ci pour la réussite du partage des données. Or, l’atelier « Accompagnement » de l’après-midi a tout aussi largement mis en évidence l’inefficacité […]

GIS Ελλάδα: lizmap στα ελληνικά για το συνέδριο HellasGI

Μερικές πληροφορίες σε σχέση με την εφαρμογή lizmap και την ελληνική μετάφραση.

Από το twitter θα βρείτε πληροφορίες
https://twitter.com/hashtag/lizmap


https://github.com/3liz/lizmap-web-client/releases/tag/2.10.0

Μια εφαρμογή στο διαδίκτυο lizmap για τη Καβάλα.
http://geotest.bretagneromantique.fr/lizmap-web-client/lizmap/www/index.php/view/map/?repository=city&project=myproject

Η τεκμηρίωση για το lizmap
http://docs.3liz.com/en/introduction.html 

Τα λέμε στο συνέδριο στην Αθήνα...

INSPIRE by clouds: Retour sur la journée du CNIG du 18.11.14

Ce qui suit est un compte-rendu essentiellement subjectif des moments marquants de la journée du 18.11.14 du CNIG consacrée à la mise en œuvre de la directive INSPIRE. Introduction de Pascal Lory, IGN, au titre de l’appui au secrétariat permanent : il y a 400 participants dans les groupes CNIG. Le point de vue d’Ulla Krongborg […]

GIS Ελλάδα: Σε επίσκεψη στην Αθήνα - HellasGIs

Θα είμαι παρόν στο 8ο Πανελλήνιο Συνέδριό - HellasGIs στην Αθήνα τις 11 Δεκεμβρίος.
Το πρωί θα είμαι ένα γεμάτο πρόγραμμα για μένα αφού θα είμαι στα workshops στις 11.00 με 13.00 για το θέμα "Διάχυση των γεωγραφικών δεδομένων στο διαδίκτυο από QGIS σε Lizmap".

Στο καπάκι, θα συνεχίσω με τη παρουσίαση μου που έχει μεγάλη σχέση με το προηγουμένο θέμα ... με τίτλο "ΔΙΑΔΙΚΑΣΙΕΣ ΓΙΑ ΤΗΝ ΕΠΙΤΕΥΞΗ ΤΗΣ ΔΙΑΧΥΣΗΣ ΔΗΜΌΣΙΩΝ ΓΕΩΓΡΑΦΙΚΩΝΔΕΔΌΜΕΝΩΝ ΣΤΌ ΔΗΜΌ BRETAGNE ROMANTIQUE ΓΑΛΛΙΑΣ".

Θα είμαι διακοπές αλλά ευκαιρία είναι να περάσω και να καποιά λόγια για την εμπειρία μου στο δήμο που εργάζομαι...

Σας βάζω και τη περίληψη της παρουσίασης για περισσότερες λεπτομέρειες στο παρακάτω μέρος.

Περίληψη:
Ο δήμος Bretagne romantique στη Γαλλία θέλει να αναπτύξει τη σωστή λειτουργία των υπηρεσιών της και επίσης να διευκολύνει την πραγματοποίηση των έργων για το προσωπικό  που διασφαλίζει το συντονισμό αυτών. Αυτό εκφράζεται μέσω της αποστολής του δήμου για την παρακολούθηση των 27 κοινοτήτων και τη διάθεση των γεωγραφικών δεδομένων που αφορούν ειδικά το κτηματολόγιο, τα πολεοδομικά σχέδια και τα δεδομένα των δικτύων διανομής. Έτσι εξηγείται η πραγματοποίηση του Δημοτικού Γεωγραφικού Συστήματος Πληροφοριών (ΓΣΠ) το 2009. Αρχικά δημιουργήθηκε για να απαντήσει στις ανάγκες χρήσης και αναζήτησης του κτηματολογίου και της ορθοφωτογραφίας.

Μετά από μερικά χρόνια, διαπιστώθηκε ότι οι ανάγκες των χρηστών έχουν αλλάξει και το ΓΣΠ δεν ήταν προσαρμοσμένο πλέον στις προσδοκίες των υπαλλήλων και των συνεργατών. Γι' αυτό το 2013,  η τοπική αυτοδιοίκηση δεσμεύεται σ'ένα συγκεκριμένο έργο για να εξασφαλισθεί η συνέχιση της χρήσης των γεωγραφικών δεδομένων και της ανάπτυξης  των εφαρμογών του.

Το τμήμα του Συστήματος Πληροφοριών ξεκίνησε αυτό το έργο με μια σταδιακή αύξηση των δεδομένων στο ΓΣΠ. Πρόκειται για τη δημιουργία νέων χωρικών δεδομένων σε σχέση με τα θέματα της πολεοδομίας και του περιβάλλοντος. Παράλληλα, το έργο έχει ως στόχο μια μεγαλύτερη διάχυση των εδαφικών δεδομένων στο διαδίκτυο με σκοπό τη σταδιακή απελευθέρωση αυτών, με αποτέλεσμα να χρησιμοποιούνται από το κοινό (και όχι μόνο από τους υπαλλήλους των δημόσιων υπηρεσιών). 

Αρχικά μέσω της παρουσίασης θα γίνει η περιγραφή των θεμάτων που αντιμετώπισε η τοπική αυτοδιοίκηση πριν την πραγματοποίηση του έργου.

Έπειτα θα προσεγγίσουμε τις τεχνικές λύσεις και τα θέματα σχετικά με την οργάνωση του έργου. Εξίσου η φάση ευαισθητοποίησης των υπηρεσιών του δήμου και της διεύθυνσης είναι ιδιαίτερα σημαντικές για τη σωστή υλοποίηση του.

Ένα κεφάλαιο θα αναφέρει τις εφαρμογές που λειτουργούν σύμφωνα με τα πρότυπα της δια λειτουργικότητας των συστημάτων. Αυτές βασίζονται σε ελεύθερα λογισμικά για μια μεγαλύτερη ευελιξία που επιτρέπει την εύκολη αναβάθμισή τους.  Πρόκειται για τα λογισμικά Desktop QGIS 2.Χ που είναι εγκατεστημένα στους υπολογιστές των τμημάτων του δήμου και στοχεύουν στη δημιουργία νέων χωρικών δεδομένων που θα ενσωματωθούν στη συνέχεια στο ΓΣΠ. Ανάλογα τα ευαίσθητα δεδομένα, όπως το κτηματολόγιο, βρίσκονται σε μια βάση δεδομένων και σε μια ξεχωριστή εφαρμογή WebGIS  με κωδικοποιημένη πρόσβαση για τους υπάλληλους του δήμου και των κοινοτήτων. Το επόμενο θέμα θα αφορά τη δημόσια διάχυση των γεωγραφικών δεδομένων με ελεύθερα λογισμικά WebGIS Lizmap εξασφαλίζοντας μια πλήρη συμπληρωματικότητα μεταξύ του GIS Desktop QGIS και του WebGIS Client Lizmap. Επισημαίνεται και η διαθεσιμότητα των λογισμικών στην ελληνική γλώσσα για μια καλύτερη κατανόηση από το κοινό.

 Τέλος, θα παρουσιαστούν οι προοπτικές ανάπτυξης του έργου αναλυτικά στοχεύοντας στους προβληματισμούς που προκύπτουν και θα επισημανθούν οι προβλέψεις του κάθε τμήματος για τη βελτίωση των χρήσεων των γεωγραφικών δεδομένων στο δήμο Bretagne romantique.


Για το πλήρης πρόγραμμα, δείτε το αρχείο από την επίσημη ιστοσελίδα του Συνεδρίου http://www.hellasgi.gr/

Cartesia.org: Simposio: Geomatics in Latin American Archaeology

Sesión que llevamos a la 43 Conferencia Anual Internacional Computer Applications and Quantitative Methods in Archaeology (CAA Siena 2015) que se celebrará entre el 30 Marzo y el 3 Abril 2015 en Siena (Italia) con el título: “Geomatic approaches in Latin American Archaeology: the state-of-the-art in Spatial Archaeology”.

La propuesta completa se halla en : http://caaconference.org/program/sessions/4f/

Maximiano, Alfredo M. Universidad de Cantabria. IIIPC. España, maximianocastillejo@gmail.com
Magnin, Lucía A. Universidad Nacional de La Plata. CONICET Argentina, lumagnin@yahoo.com.ar
De Feo, María Eugenia. Universidad Nacional de La Plata. CONICET Argentina, eugeniadefeo@yahoo.com.ar
Figuerero Torres, María José. Universidad de Buenos Aires. Argentina, mjofiguerero@yahoo.com.ar

Contacto: geomaticsla.caa.2015@gmail.com
20 Nov 2014: concluye llamado de trabajos
Presentación de resúmenes: http://caaconference.org/program/

Terra Observer: Daily Overview

Bo Ziemi widzianej z góry nigdy za wiele.

Terra Observer: Webcarto - lista serwisów WMS

  • Ładne,
  • aktualne,
  • użyteczne,
  • i dobre, bo polskie (choć po angielsku).
webcarto - baza usług sieciowych wzbogacona o dodatkowe narzędzia takie jak czytelna interpretacja zapytania GetCapabilities czy monitoring działania serwera mapowego. Krótko mówiąc: warto dodać do zakładek :)




年会費無料のETCカードってあるの?: レンタカーとカーシェアは運転する時間や用途によります

たいていの場合、レンタカーとはお金を払って車を一日単位で借りられるシステムです。

そのため主な利用者は車を持っていない人で、旅行やドライブなど長時間車を使いたいという人がレンタカーを利用します。

 

そしてカーシェアリングもお金を払って車を借りるという点ではレンタカーと一緒です。

しかし何人かの人と一緒に一台の車を借りるというシステムで、その分一人の人が車を使える時間はレンタカーに比べると非常に短いのが特徴です。

 

また会員制という形をとっているカーシェアリングが主で、基本料金を払うものもあれば、そうでないものもあります。

また10分から15分単位での貸し出しを行っているところが多く、一回当たり数百円での利用が可能なものもあります。

 

先にも述べたように、旅行やドライブなどで長時間車を使用したいというケースではレンタカーを利用するほうがよいでしょう。

しかしちょっとした買い物や家族の送り迎えなど、それほど時間を必要としない用事のために車を運転したいというのであれば、カーシェアリングがお得です。

 

このようにレンタカーは車が一日必要であるという旅行などの大きなイベント時に利用でき、カーシェアリングはどちらかというとちょっとした用事を済ませるために車が必要だという人向けのシステムです。

 

いずれにせよ高い車の維持費を払って車を所有するのではなく、必要なときにだけ車を使いたいという人にとってレンタカー、そしてカーシェアリングは非常に便利です。

neogeo: Sécurité des Systèmes d’Information

Le moment paraît bien choisi. Depuis mercredi, la découverte d’une vulnérabilité béante dans « bash », l’interpréteur de commande le plus répandu dans le monde Linux, et aussi utilisé par OS X, vulnérabilité relativement facile à exploiter même si elle est un peu plus complexe à expliquer, illustre une fois de plus, après HeartBleed en mars, que nos systèmes informatiques sont faillibles, quelque puisse être la méticulosité des développeurs et testeurs. Ils sont faillibles car ils sont complexes et mobilisent de nombreux sous-systèmes. Ils sont faillibles car de nombreuses personnes vont s’employer à y percer des trous.
Forts de ce constat, effectué en conjonction de l’épisode HeartBleed et de vilaines attaques DDOS sur des infrastructures amies, nous avons entrepris de doter Neogeo Technologies d’une compétence, car il en faut, en sécurité des systèmes d’information. C’est en effet un métier, doté d’un savoir-faire, associé à une expertise. C’est pourquoi nous avons recruté un expert en sécurité, Wannes Rombouts, jeune et talentueux hacker, à peine sorti de l’Epitech mais déjà découvreur et patcheur de nombreuses vulnérabilités, notamment sur le noyau Linux.
La sécurité informatique est étroitement associée à la notion de risque. Est-ce que mon installation risque de se faire attaquer ? A quel type d’attaque ? Y résistera-t-elle ? S’en remettra-t-elle ? Comme pour les risques naturels, cela se modélise en termes d’aléas (le truc qui peut arriver : attaque DDOS, exploitation de vulnérabilité, intrusion…) et d’enjeux (que se passe-t-il si le système est endommagé ? S’il y a un vol de données, de comptes utilisateur ?). On retrouve alors l’équation risque = aléa x enjeu, avec les notions connexes de vulnérabilité, de résistance et de résilience (capacité à se remettre d’une attaque).
Pour chacun de ces aspects nous proposons ainsi désormais des prestations, standardisées ou sur-mesure que nous pouvons ranger dans trois catégories complémentaires :

Information

  • Newsletter Neogeo Sécurité pour vous tenir au courant de l’actualité « sécurité », et relayer de manière didactique (évaluation des risques) les principales nouvelles vulnérabilités découvertes. Inscription libre depuis ce formulaire.
  • Liste de diffusion restreinte Neogeo Sécurité. Pour recevoir une veille personnalisée en fonction de votre infrastructure et de vos besoins. Accès sur abonnement payant (100 € / an).
  • Organisation de séminaires et de sessions de sensibilisation des personnels techniques et moins techniques aux menaces sur les systèmes informatiques et aux bonnes pratiques pour s’en prémunir.

Investigation

  • Audits applicatifs et tests d’intrusion (boite noire/grise/blanche) :
  • Audit de code source : examen du code pour découvrir des vulnérabilités à de mauvaises pratiques de programmation ou des erreurs de logique.
  • Audit de configuration : vérification de la mise en œuvre de pratiques de sécurité conformes à l’état de l’art sur les dispositifs matériels et logiciels et leurs diverses configurations.
  • Audit d’architecture : prestation plus complète, elle consiste, comme l’audit de configuration, en la vérification de la conformité des pratiques de sécurité mais aussi des choix technologiques et organisationnels qui ont présidé à l’élaboration du SI.

Intégration

  • Intervention amont lors de la conception et du développement d’applications pour identifier et corriger les problèmes de sécurité le plus tôt possible et sensibiliser les développeurs à ces notions.
  • Sécurisation avancée et personnalisée de votre SI.
  • Formations spécifiques

 

Ces diverses prestations s’adressent évidemment à toute organisation, publique ou privée, souhaitant renforcer sa sécurité informatique ou s’assurer de sa qualité. Forts de nos compétences en SIG, nous développerons également une veille particulière sur ces environnements, et notamment les plateformes SIG en ligne, afin que, si les flux INSPIRE et Opendata se croisent et s’entremêlent, ils ne soient pas des vecteurs de vulnérabilité.

Pour toute question complémentaire, merci de vous adresser à security[arobase]neogeo-online.net.