Blog IDEE: El rincón de ILAF OGC – Junio 2015

Sabías que…

Open Geospatial Consortium (OGC) ha formado un grupo de trabajo denominado Point Cloud Domain Working Group (DWG) para tratar los temas relacionados con la interoperabilidad al compartir y procesar nubes de puntos. El propósito de este grupo es crear un foro de discusión colaborativo para definir y entender cuestiones, requisitos, casos de uso o limitaciones a la interoperabilidad de nubes de puntos.

Las nubes de puntos están creciendo a un ritmo acelerado en una variedad de ámbitos: servicios públicos, minería de datos, modelización 3D, etc., y actualmente estos datos están almacenados en muchos formatos. En muchos casos los formatos se crearon por ámbitos de aplicaciones particulares, algunos de ellos son ahora estándares de facto en ámbitos como datos multidimensionales, LiDAR, modelos de elevación, sismología, batimetría, meteorología y otros.

A principios de junio en la reunión del Technical Committee (TC) de OGC que tuvo lugar en Boulder (Colorado), se realizó una sesión ad hoc donde fue promovida la creación del grupo Point Cloud Domain DWG. En el siguiente enlace están disponibles las presentaciones: http://www.opengeospatial.org/blog/2231.

Posteriormente, el pasado 18 de junio, OGC abrió un período de 30 días para recabar sugerencias y comentarios sobre el documento fundacional del grupo https://portal.opengeospatial.org/files/64097


Noticias OGC






Próximos eventos

¡Más sobre OGCen la web del Foro Ibérico y Latinoamericano de OGC!

Blog IDEE: El rincón de ILAF OGC – Junio 2015

Sabías que…

Open Geospatial Consortium (OGC) ha formado un grupo de trabajo denominado Point Cloud Domain Working Group (DWG) para tratar los temas relacionados con la interoperabilidad al compartir y procesar nubes de puntos. El propósito de este grupo es crear un foro de discusión colaborativo para definir y entender cuestiones, requisitos, casos de uso o limitaciones a la interoperabilidad de nubes de puntos.

Las nubes de puntos están creciendo a un ritmo acelerado en una variedad de ámbitos: servicios públicos, minería de datos, modelización 3D, etc., y actualmente estos datos están almacenados en muchos formatos. En muchos casos los formatos se crearon por ámbitos de aplicaciones particulares, algunos de ellos son ahora estándares de facto en ámbitos como datos multidimensionales, LiDAR, modelos de elevación, sismología, batimetría, meteorología y otros.

A principios de junio en la reunión del Technical Committee (TC) de OGC que tuvo lugar en Boulder (Colorado), se realizó una sesión ad hoc donde fue promovida la creación del grupo Point Cloud Domain DWG. En el siguiente enlace están disponibles las presentaciones: http://www.opengeospatial.org/blog/2231.

Posteriormente, el pasado 18 de junio, OGC abrió un período de 30 días para recabar sugerencias y comentarios sobre el documento fundacional del grupo https://portal.opengeospatial.org/files/64097


Noticias OGC






Próximos eventos


GEOBUIZ - The Leaders' Summit  - 10-11/08/2015



¡Más sobre OGC en la web del Foro Ibérico y Latinoamericano de OGC!

Landkarten BLOG: Die Erde aus der Sicht der ISS


GeoRezo.net - Géoblog: [Parcell'air] Apparier le PCI et les données MAJIC III

Lors de l'intégration dans les SI des utilisateurs d'un nouveau millésime du cadastre, l'une des tâches principales consiste à apparier les données MAJIC III avec le Plan Cadastral, gérés et fournis de manière indépendante par la DGFiP.

Les livraisons "classiques" interviennent en général courant Juin, pour une situation des données MAJIC III arrêtées au 1er Janvier de l'année en cours (ou plus exactement au 31 Décembre de l'année N-1).

Dans ce fil de discussion publié sur les forums GeoRezo, une phrase de l'un des intervenants a mérité un petit correctif.
Il est vrai que qu'un envoi en début d'année serait préférable car la situation foncière collerait ainsi mieux avec Majic (fichiers en date 01/01/N).

Non, au contraire.
Les mises à jour de MAJIC III pour l'année N-1 par les services de la DGFIP se poursuivent jusqu'en mai de l'année N environ, notamment pour prendre en compte les mutations et autres changements qui interviennent en fin d'année (délais de prise en charge, de transmissions etc...)
En Mai de l'année N, la situation au 31 Décembre précédent est reconstituée pour produire les bases servant à l'établissement des impôts locaux.
Le plan cadastral est lui mis à jour en continu, et il y a forcément, comme MAJIC III, des informations relatives à N-1 qui sont intégrées dans les premiers mois de l'année N.
Plusieurs évaluations de la meilleure corrélation possible entre MAJIC III et le PCI au 31 Décembre de l'année ont été faites (par la DGFIP, les CT etc...). Toutes aboutissent à la conclusion que la correspondance est optimale pour un plan mise à jour jusqu'à fin Avril début Mai.
D'où une livraison classique de l'ensemble de ces informations (MAJIC III au 31 Décembre N-1 et PCI à Mai N) en Mai-Juin.

Les taux d'appariement des parcelles issues de MAJIC III avec celles du PCI se dégradent sensiblement si ces principes ne sont pas respectés.

Blog IDEE: Newsletter IDE Iberoamérica (Mayo 2015)

Es un placer informarte que ya está disponible el nuevo número del Newsletter IDE Iberoamérica correspondiente al mes de mayo de 2015 (Vol.11 No.05). La editora del Newsletter, Dra. Mabel Álvarez, destaca en esta edición:
  • Noticias de Argentina, Brasil, Cuba, Chile, España, América Latina como región y de otras regiones del mundo.
  • Noticias del IPGH, Geosur y MundoGeo.
  • Novedades del Foro Ibérico y Latinoamericano de OGC - ILAF.
  • Información sobre publicaciones y recursos para descargar.
  • Novedades de España sobre: el portal IDEE, el Blog IDEE, el SITNA de Navarra, el Instituto Cartográfico de Cataluña y las IDE de La Rioja, Canarias, Aragón, Euskadi, Confederación Hidrográfica del Guadalquivir y la Comunidad Valenciana.
  • Información sobre convocatorias y becas.
  • Información sobre el III Congreso Nacional de Tecnologías de la Información Geográfica, III Jornadas de Sistemas de Información Geográfica y I Congreso Internacional de Tecnologías de la Información Geográfica, a realizarse en octubre próximo en la Facultad de Humanidades y Ciencias Sociales de la Universidad Nacional de la Patagonia San Juan Bosco, Argentina.
  • Información sobre el IX Congreso Internacional Geomática 2016 a realizarse en marzo en La Habana, Cuba.
  • Novedades sobre ofertas de formación de posgrado.
  • Una variada Agenda de Eventos.
Publicado por Willington Siabato

Blog IDEE: Condiciones de uso de la información del ICGC

Para generar valor añadido a partir de la información cartográfica, geológica y geofísica, el Institut Cartogràfic i Geològic de Catalunya (ICGC) ha actualizado las condiciones de uso de la información que produce o es propietario.

Concretamente, las nuevas condiciones se basan en la licencia Creative Commons de Reconocimiento 4.0 Internacional (CC BY 4.0), que permiten la reutilización de la información cartográfica, geológica y geofísica para cualquier objetivo lícito, especialmente la reproducción y divulgación con cualquier medio, y la creación de productos o servicios de información con valor añadido, simplemente indicando la autoría de la fuente (y aplicando los demás términos definidos en las condiciones y en el CC BY 4.0).


Fuente: http://www.icc.cat/Home-ICC/Informacio-corporativa/Actualitat/Noves-condicions-d-us-ara-mes-senzilles-i-obertes

GeoRezo.net - Géoblog: [INSPIRE by clouds] Evaluation du partage par les producteurs

Le rapportage est un outil lourd, annuel et à gros grains. Il n'est pas bien pratique pour l'auto-évaluation.

Depuis 2013, nous évaluons donc la mise en œuvre d'INSPIRE par les principales autorités publiques, principalement les services déconcentrés de l’État en charge de l'environnement (DREAL & DDT) et les Conseils départementaux et régionaux. En 2013 et 2014, une simulation était réalisée en septembre pour que chacun puisse constater son état et éventuellement améliorer sa pratique du partage de données géographiques. Cela a donné d'excellents résultats en mobilisant les producteurs sur des bases simples. Désormais, nous publierons deux fois par an une évaluation basée sur une méthode un peu différente, plus propre à rendre compte des mise en œuvre par chacun, mais toujours issue du Géocatalogue national.

La première mesure porte sur le nombre de métadonnées. Notre constat est que le démarrage a été lent dans les services de l'Etat, mais que la dynamique est remarquablement forte. Pour résumer, une fois que l'habitude de diffuser ses métadonnées est prise, elle ne fait que se renforcer. Nul doute que nous constaterons cela aussi chez les collectivités territoriales.

Le bilan est donc extrêmement positif : cette tâche ingrate qu'est le catalogage devient une pratique courante, normale. Dans les articles suivants, nous allons donc pouvoir nous concentrer sur le partage de la donnée elle-même, cœur de la politique posée par INSPIRE.

Précaution de lecture : les cartes ci-dessous sont de simples juxtapositions de cartes réalisées en 2013 et 2015. Certains seuils ont évolué pour mieux rendre compte l'évolution de la pratique moyenne des services.

[caption id="attachment_3595" align="aligncenter" width="218"]Carte diffusion MD par DREAL 2013-2015 Carte diffusion MD par DREAL 2013-2015[/caption]

[caption id="attachment_3594" align="aligncenter" width="220"]Carte diffusion MD par DDT 2013-2015 Carte diffusion MD par DDT 2013-2015[/caption]

[caption id="attachment_3597" align="aligncenter" width="212"]Carte diffusion MD par Conseil régional 2013-2015 Carte diffusion MD par Conseil régional 2013-2015[/caption]

[caption id="attachment_3596" align="aligncenter" width="208"]Carte diffusion MD par Conseil départemental 2013-2015 Carte diffusion MD par Conseil départemental 2013-2015[/caption]

NdB : la source pour 2015 est une exploitation du service CSW du Géocatalogue du 22 mai 2015. Le fichier source est .

NbD 2 : On me signale qu'il y a un problème de certificat pour télécharger la source, je cite "impossible avec FireFox mais passe avec un navigateur laxiste (IE)". Mais le serveur de ce blog n'accepte pas les dépôts de fichiers de tableurs, même en .csv.

Landkarten BLOG: EU Wettervorhersage für diese Woche

Diese Wettervorhersage passt irgendwie direkt in zwei Nachrichtenrubriken.


Orbemapa: El doble spillover de la smart city

Las ciudades inteligentes (Smart city) y las redes inteligentes (Smart grid) son palabras con las que uno se encuentra de manera recurrente durante los últimos meses en los medios de comunicación especializados en geomática y también en los medios generalistas. No vamos a entrar en el debate sobre la necesidad de la smart city…

Landkarten BLOG: Die Welt - Illustratotion vonr Satoshi Hashimoto


Geofumadas: Números fríos del Top 40 Geoespacial en Twitter

En otro tiempo no creímos que pudiera llegar a ser muy importante la actividad de una cuenta de Twitter.  Pero en un mundo donde nos ahogamos en océanos de contenido, las tres horas de vida de un Tuit se vuelven atractivos si se extrae de manera consistente y selectiva aquellos titulares que representan conocimiento, más que información.

Esto, sumado a la disciplina de 2 a 5 publicaciones diarias y seguimiento selectivo crea un valor agregado de crecimiento más que interesante tanto en seguimiento como en retuiteo y favoritos.

 

Twitter se parece mucho a leer los titulares de un periódico impreso.  Valiosos por lo determinantes, decepcionantes si su contenido real es pobre.  Al día siguiente apenas sirven para envolver pescado.

 

image

 

Monitoreando el Top 40 de cuentas de Twitter en el sector geoespacial, estos son algunos números fríos, al 29 de Junio de 2015:

 

Movimientos importantes

Para que una cuenta se mantenga competitiva debe tener un crecimiento semestral arriba del 10%.  Menos de eso supone perder escaños ante el promedio que crece entre 11% y 15%.

La tabla muestra en la cuarta columna cómo ha sido el crecimiento durante estos seis meses.  En rojo las cuentas con crecimiento abajo del 10%, en verde las que han tenido un crecimiento arriba del 25%.

 

 

Zona 1 – Top 1 – El 50% del tráfico está concentrado en 6 cuentas.

  • Esta zona poco cambia.  La variante está en @gisday que creció un 32%, desplazando a @gersonbeltran que apenas creció un 7%.

 

Zona 2 – Transición – Un 15% lo contienen tres cuentas.

Estas pujan por continuar ascendiendo en una zona sumamente difícil.  De continuar la tendencia actual, @MundoGEO podría caer a esta zona por baja actividad.

 

Zona 3 – La cola.

El resto de cuentas que constituyen el 35% de tráfico, se separan en en 4 segmentos:

 

Tail Q1

Esto representa un 8% del tráfico, con crecimientos dentro del rango normal.

 

Tail Q2

6 cuentas representan este 10%, con interesantes crecimientos de @masquesig (32%) y mappinggis (28%)

 

Tail Q3

7 cuentas que representan el 9%.  Con crecimientos acelerados @egeomate, @NewOnGIScafe y MappingInteract

 

Tail Q4

Aquí solamente se ve un crecimiento acelerado en @COMUNIDAD_SIG

 

No Cuenta jun-15 Crecimiento 6 meses Porcentaje Acumulado Porcentaje individual Zona  
1 @geospatialnews      25,848 11% 12% 12% Top 1 50%
2 @gisuser      20,057 8% 21% 9%
3 @ingenieriared      17,705 12% 29% 8%
4 @blogingenieria      16,147 11% 37% 7%
5 @MundoGEO      14,536 8% 44% 7%
6 @gisday      12,540 32% 50% 6%
7 @gersonbeltran      11,260 7% 55% 5% Trans 15%
8 @geofumadas      11,091 52% 60% 5%
9 @directionsmag        9,137 13% 64% 4%
10 @Esri_Spain        5,881 10% 67% 3% Tail Q1 8%
11 @URISA        5,579 10% 69% 3%
12 @Geoinformatics1        5,306 18% 72% 2%
13 @mappinggis        4,817 28% 74% 2% Tail Q2 10%
14 @pcigeomatics        3,965 13% 76% 2%
15 @nosolosig        3,770 23% 78% 2%
16 @gim_intl        3,324 13% 79% 2%
17 @masquesig        3,189 32% 81% 1%
18 @Geoactual        3,105 15% 82% 1%
19 @Cadalyst_Mag        2,965 8% 84% 1% Tail Q3 9%
20 @ClickGeo        2,928 12% 85% 1%
21 @Tel_y_SIG        2,921 13% 86% 1%
22 @egeomate        2,788 46% 88% 1%
23 @orbemapa        2,626 2% 89% 1%
24 @NewOnGISCafe        2,527 26% 90% 1%
25 @MappingInteract        2,476 26% 91% 1%
26 @POBMag        2,347 16% 92% 1% Tail Q4 9%
27 @comparteSig        2,347 20% 93% 1%
28 @gisandchips        2,238 13% 94% 1%
29 @COITTopografia        1,964 14% 95% 1%
30 @comunidadign        1,815 0% 96% 1%
31 @SIGdeletras        1,468 13% 97% 1%
32 @franzpc        1,318 8% 97% 1%
33 @PortalGeografos        1,291 1% 98% 1%
34 @cartolab        1,103 19% 98% 1%
35 @ZatocaConnect            941 3% 99% 0%
36 @revistamapping            924 1% 99% 0%
37 @COMUNIDAD_SIG            913 34% 100% 0%
38 @Cartesia_org            591 9% 100% 0%

Predicciones para Diciembre 2015

@mappinggis va a subir a Tail Q1desplazando a @URISA.

@MundoGEO va a caer a la zona de transición.

@COMUNIDAD_SIG va a subir unos 5 escaños siempre en Tail Q4.

@orbemapa va a caer a Tail Q4.

 

Seguir el Top40 en Twitter

La entrada Números fríos del Top 40 Geoespacial en Twitter aparece primero en Geofumadas.

Landkarten BLOG: Partner oder Feinde? UN-Landkarte deckt auf das die syrische Armee nur gegen die Opposition kämpft und die IS-Terrormiliz, die nur gegen die Kurden kämpft, ignoriert!

Es ist schon ziemlich merkwürdig, wenn man sich die UN-Landkarte von Syrien anschaut. In Syrien kämpft die Opposition (Grün) gegen die Syrische Armee (Rot). Vor allen in Gebieten mit größerer Einwohnerdichte versucht die Syrische Armee die Städte zu erobern. Aleppo ist eine geteilte Stadt und wird heftig zwischen den beiden Parteien umkämpft. Homs ist stark umkämpft. Hier könnten die Rebellen bald das ganze Gebiet verlieren. Damaskus ist bis auf ein kleines östliche Gebiet fest in der Hand des syrischen Präsidenten. Dabei lässt die Syrische Armee, die weitere Bedrohung, die IS (Blau), fast ungehindert in Ruhe.

Die Terrororganisation "IS" interessiert sich darüber wenig. Sie hält sich aus den eigentlichen Syrienkrieg der Syrischen Armee und der Opposition heraus. Die "IS" kämpft ausschließlich gegen die Kurden (Gelb).




Die drei Kurdengebiete sind Umkämpft. Die Lage von Kobane ist praktisch aussichtslos weil die IS die Stadt von allen Seiten umzingelt hat (Roter Punkt mit Kreuz zwischen dem mittleren und rechten Kurdengebiet). Nur der Weg zur Türkei ist frei. Die IS konzentriert sich hauptsächlich um das Nordöstliche Kurdengebiet Quamishli. Hier sind zwischen Al-Hasakeh und der türkischen Grenze kämpfe im Gange.

Sobald die IS auf dichter bevölkerte Gebiete trifft erlingt ihr kaum noch Raumgewinn,

Das Kerngebiet der IS ist ausschließlich das Gebiet um den Fluss Euphrat und Nahr al Kharbur, von der iraktischen Grenze über Dayr az Zawr und Ar Raqqah sowie die das Gebiet bis zur Kurdenhochburg Al-Hasakah. Dies zeigt deutlich die Einwohnerdichte von Syrien. Andere Regionen sind bis auf kleinere Dörfer kaum bewohnt.


In der UN-Landkarte sind aber zwei kleine Gebiete, Al-Hasakeh und Deir-ez-Zor im IS-Gebiet, die kurioserweise von der Syrischen Armee gehalten werden. Hier werden kaum Kämpfe gemeldet. Merkwürdig!


Dynamick: Host1plus: test e valutazioni

Abbiamo avuto l’occasione di provare l’hosting di Host1Plus.com, una farm di servizi web dislocata con diversi datacenter su gran parte del mondo e con quattro uffici operativi: a Londra (UK), Kaunas (Lituania), Francoforte sul Meno (Germania) e Santiago (Cile).

Host1plus nasce nel 2008 a Vilnius in Lituania da Andrius Kazlauskas e da Deividas Norkaitis e con gli anni si è espansa al punto di diventare una realtà internazionale. Attualmente offre una completa gamma servizi quali il web hosting, il VPS hosting, i server dedicati, soluzioni cloud hosting, nomi a dominio, certificati SSL, ottimizzazione server e anche servizi di assistenza custom.

datacenter-host1plus

Per questa recensione, abbiamo testato un VPS (Virtual Private Server), 2 Core, 2048MB di RAM. Nel pacchetto è prevista una velocità di banda di 50 Mbps, e 40GB di disco.

Pannello di controllo

La prima valutazione è stata fatta sul pannello di gestione, la porta d’entrata di qualsiasi utente ai servizi offerti dal provider.

dashboard

Il pannello si presenta ottimamente: il design pulito e la struttura responsive. Il menu di sinistra è ben organizzato, chiaro e si ritrae su risoluzioni inferiori.

resp

L’interfaccia è localizzata su 4 lingue: Inglese, Lituano, Portoghese e Spagnolo. Purtroppo la lingua italiana manca, ma generalmente l’inglese è ben conosciuto dai sistemisti e da chi comunque ha un’infarinatura tecnica.

Supporto

Da notare nel menu di servizio la chat online che durante i nostri test è rimasta sempre disponibile. Abbiamo provato anche a contattarla per un banale richiesta per verificare i tempi di risposta. Abbiamo aspettato 3 minuti prima che l’operatore rispondesse, un tempo accettabile per questo tipo di servizio. Inoltre l’assistenza, benchè la domanda fosse triviale, è stata cortese e professionale.

Oltre la chat, utilizzabile per problemi più urgenti, è presente un sistema di ticketing al quale sottoporre le proprie domande.

Prestazioni

Per valutare le prestazioni abbiamo lanciato un test da riga di comando su bash scritto da Getipaddr e che potete trovare a questo indirizzo.  Lo scopo di questo script di speedtest è quello di dare un quadro completo delle capacità di rete. Un server fornisce contenuti, il che significa che la velocità di upload è estremamente importante e non deve essere trascurato in un test di benchmark di rete.

Questo il log risultante:

-------------Speed test--------------------
Testing North America locations
Speedtest from Portland, Oregon, USA [ generously donated by http://bonevm.com ] on a shared 100 Mbps port
	Download Speed: 8.40 MB/sec
	Upload speed: 3.88 MB/sec
Speedtest from Seattle, Washington, USA [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 15.09 MB/sec
	Upload speed: 17.63 MB/sec
Speedtest from Los Angeles, CA, USA [ generously donated by http://maximumvps.net ] on a shared 1 Gbps port
	Download Speed: 4.34 MB/sec
	Upload speed: 8.27 MB/sec
Speedtest from Los Angeles, California, USA [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 15.25 MB/sec
	Upload speed: 10.28 MB/sec
Speedtest from Denver, CO, USA on a shared 100 Mbps port
	Download Speed: 11.58 MB/sec
	Upload speed: 19.74 MB/sec
Speedtest from Kansas City, MO, USA [ generously donated by http://megavz.com ] on a shared 1 Gbps port
	Download Speed: 0 MB/sec
	Upload speed: 0 MB/sec
Speedtest from Dallas, TX, USA [ generously donated by http://cloudshards.com ] on a shared 1 Gbps port
	Download Speed: 11.67 MB/sec
	Upload speed: 12.05 MB/sec
Speedtest from Chicago, IL, USA [ generously donated by http://vortexservers.com ] on a shared 1 Gbps port
	Download Speed: 16.16 MB/sec
	Upload speed: 17.75 MB/sec
Speedtest from Beauharnois, Quebec, Canada [ generously donated by http://mycustomhosting.net ] on a shared 1000 Mbps port in / 500 Mbps port out
	Download Speed: 4.40 MB/sec
	Upload speed: 12.87 MB/sec
Speedtest from Beauharnois, Quebec, Canada [ generously donated by http://hostnun.net/ ] on a shared 500 Mbps port
	Download Speed: 12.91 MB/sec
	Upload speed: 17.21 MB/sec
Speedtest from New York City, New York, USA [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 16.18 MB/sec
	Upload speed: 35.58 MB/sec
Speedtest from Atlanta, Georgia, USA [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 16.96 MB/sec
	Upload speed: 18.71 MB/sec
Speedtest from Lenoir, NC, USA [ generously donated by http://megavz.com ] on a shared 1 Gbps port
	Download Speed: 13.99 MB/sec
	Upload speed: 2.18 MB/sec
Speedtest from  Asheville, NC, USA on a shared 1 Gbps port
	Download Speed: 14.08 MB/sec
	Upload speed: 17.25 MB/sec
Speedtest from Jacksonville, FL, USA [ generously donated by http://maximumvps.net ] on a shared 1 Gbps port
	Download Speed: 5.48 MB/sec
	Upload speed: 3.60 MB/sec

Testing EU locations
Speedtest from Tallinn, Estonia on a shared 1 Gbps port
	Download Speed: 13.50 MB/sec
	Upload speed: 1.48 MB/sec
Speedtest from London, United Kingdom on a shared 1 Gbps port
	Download Speed: 66.46 MB/sec
	Upload speed: 43.08 MB/sec
Speedtest from Paris, France on a shared 1 Gbps port
	Download Speed: 31.26 MB/sec
	Upload speed: 16.92 MB/sec
Speedtest from Alblasserdam, Netherlands [ generously donated by http://ramnode.com ] on on a shared 1 Gbps port
	Download Speed: 80.10 MB/sec
	Upload speed: 68.07 MB/sec
Speedtest from Spijkenisse, Netherlands [ generously donated by http://www.freshnetworks.co ] on a 1 Gbps shared port
	Download Speed: 31.88 MB/sec
	Upload speed: 40.07 MB/sec
Speedtest from Milan, Italy [ generously donated by http://www.prometeus.net ] on a shared 1 Gbps port
	Download Speed: 30.87 MB/sec
	Upload speed: 54.70 MB/sec
Speedtest from Dusseldorf, Germany [ generously donated by http://megavz.com ] on a shared 1 Gbps port
	Download Speed: 2.04 MB/sec
	Upload speed: 20.84 MB/sec
Speedtest from Falkenstein, Germany [ generously donated by http://megavz.com ] on a shared 1 Gbps port
	Download Speed: 22.78 MB/sec
	Upload speed: 43.33 MB/sec
Speedtest from Bucharest, Romania [ generously donated by http://www.prometeus.net ] on a semi-dedicated 1 Gbps port
	Download Speed: 11.58 MB/sec
	Upload speed: 11.61 MB/sec

Testing Asian locations
Speedtest from Singapore on a shared 1 Gbps port
	Download Speed: 11.37 MB/sec
	Upload speed: 4.82 MB/sec
Speedtest from Tokyo, Japan on a shared 1 Gbps port
	Download Speed: 1.58 MB/sec
	Upload speed: 1.33 MB/sec

Testing Australian locations
Speedtest from Sydney, Australia on a shared 1 Gbps port
	Download Speed: 1.10 MB/sec
	Upload speed: 1.19 MB/sec
---------------CPU test--------------------
CPU: 1 x QEMU Virtual CPU version 1.0
Time taken to generate PI to 5000 decimal places with a single thread: 0m27.784s
----------------IO test-------------------
Writing 1000MB file to disk
(1.1 GB) copied, 5.68625 s, 189 MB/s

Interessante notare i picchi raggiunti in Olanda (80 MB/sec in download e 68 MB/sec in upload) e un buon comportamento generale in europa. In America la banda è accettabile con picchi fino a 35 MB/sec in upload e 16 MB/sec a New York. L’Asia e l’Australia forniscono risultati peggiori probabilmente dovuti all’infrastruttura esterna più che a deficit del provider.

Abbiamo inoltre messo a confronto i testi di IO throughput  e CPU test con un VPS dual core su DigitalOcean che ha prodotto questi risultati:

---------------CPU test--------------------
CPU: 2 x Intel(R) Xeon(R) CPU L5630 @ 2.13GHz
Time taken to generate PI to 5000 decimal places with a single thread: 0m39.094s
----------------IO test-------------------
Writing 1000MB file to disk
(1.1 GB) copied, 2.34606 s, 458 MB/s

La potenza di calcolo si è dimostrata migliore in Host1Plus impiegando solo 0m27.784s rispetto ai  0m39.094s su DigitalOcean. Invece l’IO speed si è rivelato migliore su DigitalOcean che ha doppiato i tempi di Host1Plus. Quest’ultimo risultato è riconducibile all’uso da parte di DigitalOcean di dischi allo stato solido (SSD) che accelerano il throughput su disco, mentre Host1Plus utilizza dischi tradizionali con solamente la cache SSD.

Costi

Host1Plus offre diverse tipologie di servizio di hosting. Dal più banale hosting condiviso, alle VPS, ai server dedicati.

L’hosting condiviso parte dai 7€ all’anno per piani basilari (1GB di spazio, 50GB di banda) ai 132€ all’anno per piani più ricchi di servizi (banda illimitata, 100GB spazio, indirizzo IP gratuito).

I cloud server partono da cifre di 2€/mese (0.5 core, 256 MB di ram, 20 GB di disco, 500GB di banda, 1 IP) ad oltranza. Il piano Gold, per esempio, costa 32€/mese per 4 core, 4 GB di ram, 70 GB di disco, 3000 GB di banda e 1 IP.

I server dedicati, infine, hanno prezzi superiori, per prestazioni chiaramente migliori. Si parte da server dal costo di 50€/mese per arrivare a cifre ben più importanti per server di categoria superiore.

L'articolo Host1plus: test e valutazioni sembra essere il primo su Dynamick.

La Cartoteca: Una herramienta para elegir la mejor proyección cartográfica

Projection Wizard es una sencilla aplicación web, creada por el Departamento de Cartografía de la Oregon State University, que puede servirnos de ayuda a la hora de elegir la mejor proyección cartográfica cuando nos encontremos preparando mapas, ya sean del mundo o de una porción de la superficie terrestre.

map_projection_wizard

Su funcionamiento es realmente sencillo. En primer lugar se debe seleccionar el área que se va a representar en el mapa sobre una imagen global de nuestro planeta. Esa selección puede hacerse a través de la ventana interactiva sobre la pantalla, o bien se pueden introducir las coordenadas correspondientes. Luego, se elige el tipo de proyección deseado (conforme, equidistante…), y ya está. Tendremos en pantalla una lista, con características detalladas, acerca de la proyección recomendada para plasmar nuestro mapa. Como extra, cabe señalar que, en algunos casos, se permite la descarga de ficheros proj.4, que encuentran utilidad en la conversión entre proyecciones en diversos tipos de software cartográfico.

| Vía Maps Manía |

Una herramienta para elegir la mejor proyección cartográfica apareció originalmente en La Cartoteca, junio 26, 2015.

GeoRezo.net - Géoblog: [La Minute GeoRezo] Un Blog pour Litto3D® en PACA

bandeaulitto3D

Le CRIGE-PACA a ouvert en mai dernier un blog dédié aux données Litto3D® du SHOM. Ce blog, dernier né des nombreux Geoblogs hébergés par le site Georezo, est accessible à cette adresse : http://georezo.net/blog/litto3d/

 
Litto3D ?
Les données Litto3D® représentent en 3 dimensions la frange littoral, permettant ainsi l’obtention d’un référentiel précis s’étendant sur moins 2 kms à l’intérieur des terres pour atteindre une altitude de +10m jusqu’à environ 6 miles marins et l’isobathe -10m en mer et même -40m pour le cas de la Mer Méditerranée.
Ces données, obtenues grâce à la technologie LIDAR, sont accessibles à tous et disponibles gratuitement sous Licence Ouverte sur le site du SHOM.

Les visiteurs peuvent découvrir l’actualité liée à Litto3D et des contenus divers, allant des réalisations effectuées à partir des données par les collectivités et bureaux d’études aux témoignages de ses utilisateurs. La rubrique sur les cas d’usages est déjà bien fournie et symbolise bien la multitude des domaines d’application pour les données Litto3D® :

  • la prévention des risques,

  • la protection du littoral,

  • l’aménagement du territoire,

  • le tourisme, …


Le blog Litto3D propose également une rubrique d'aide et astuces pour guider les usagers dans l’exploitation des données.

Ce blog est participatif, chacun a la possibilité, s’il le souhaite, de lancer un sujet pour témoigner de son expérience ou de commenter des articles publiés, etc…

Mis à disposition en région PACA, ce blog n’est pas limité à son territoire et les contributeurs extérieurs sont les bienvenus. N’hésitez pas à contacter les administrateurs pour plus d’information et créer un compte utilisateur, via l’adresse support.litto3d AT crige-paca.org.
La démarche en PACA
Dans un souci de faciliter la mise en œuvre des politiques de la mer et du littoral, sur une bande littorale où se concentrent de nombreux enjeux, la Région Provence-Alpes-Côte d’Azur s’est mobilisée pour réaliser cette base de données unique combinant les données topographiques de l’IGN et les données bathymétriques du SHOM. Ce projet a fait appel à de nombreux partenaires : la Région PACA, l’Etat (DREAL, SGA), l’Europe (FEDER), le SHOM, l’IGN, Toulon Provence Méditerranée (TPM). La Région PACA a bénéficié de l’assistance technique du SHOM, et d’une coordination des marchés avec le Département du Finistère. La base de données couvrant le littoral complet de la région est disponible en totalité depuis le mois de Mars 2015.

 

Article rédigé avec Lorédane du CRIGE PACA

GeoRezo.net - Géoblog: [INSPIRE by clouds] Rapport de la France sur la mise en oeuvre d'INSPIRE

C'est de saison : lorsque les jours s'allongent, le rapport des autorités françaises sur la mise en oeuvre d'INSPIRE arrive. Sauf que je n'ai pas écrit de billet l'année dernière, et que, aujourd'hui, les jours raccourcissent. Bon, agitons le drapeau de la licence poétique, et glissons.

Le rapport français (PDF) est formellement un fichier de 18 000 lignes qui reprend chaque série de données notée INSPIRE dans le Géocatalogue, ainsi que chaque service en réseau catalogué. Outre le caractère ingrat desdits documents, il intéresse peu les Français en ce qu'il ne cite que des moyennes. Or, personne n'est une moyenne. On y trouve toutefois des pépites, comme les six (6) seuls services de recherches dotés de métadonnées de service.

A ce stade, je peux encore les citer : ce sont ceux du BRGM et de l’IGN, de l’Ifremer, du Sandre, de GéoNormandie et de la DREAL Basse-Normandie. Merci à eux.

Mais alors, comment le Géocatalogue et Etalab moissonnent-t-ils toutes ces métadonnées? Bonne question.

Nous avons établi une note de synthèse sur le rapport qui pointe ses enseignements essentiels. Le principal est que beaucoup trop peu de données sont accessibles : 35% des données cataloguées le sont, alors qu'en réalité plus de 85% devraient l'être. Je reviendrai dans le prochain billet sur le détail par grand type de producteur. Mais nous avons collectivement encore un problème de partage de l'information géographique environnementale.

Enfin, cette année est un peu différente en ce que l'Agence européenne de l'environnement a déployé à l'occasion, avec notre soutien actif, un site internet qui met en perspective les rapports de chaque Etat. Ainsi, vous trouvez ici les tendances. Mieux, il permet toutes les requêtes imaginables. Pour ceux de mon genre qui oublient systématiquement la syntaxe du requêtage, de simples clics permettent de voir des résultats rigolos (pour qui a un humour de géomaticien). Par exemple, où sont les quelques centaines de données encore en Lambert zone (c'est , puis sélectionner "territory >FR, et regardez le graphique COORDINATE SYSTEM USED. En cliquant sur la barre, vous avez la liste). C'est tout à fait anecdotique, mais montre un aperçu de la puissance de cet outil.

C'est pourquoi la note de synthèse citée plus haut se focalise sur le tableau de bord européen : plutôt que passer des jours à étudier les données, vous les avez toutes, libre à vous de vous en saisir et de partager vos résultats!

Spatialists: Fabulous Finds II

source

→ Google Sheep View

source

If you are like me you love a good parody and hence this new Google product.

 

→ What to do if your p-value is just over the arbitrary threshold for ‘significance’ of p=0.05?

Matthew Hankins carried out an analysis of the wording researchers use when their statistical tests yield non-significant results (p > 0.05). Hilarious!

” The following list is culled from peer-reviewed journal articles in which (a) the authors set themselves the threshold of 0.05 for significance, (b) failed to achieve that threshold value for p and (c) described it in such a way as to make it seem more interesting.
[…]
here is the list in full:
(barely) not statistically significant (p=0.052)

a barely detectable statistically significant difference (p=0.073)
a borderline significant trend (p=0.09)
a certain trend toward significance (p=0.08)
a clear tendency to significance (p=0.052)
a clear trend (p<0.09)
a clear, strong trend (p=0.09)
[…]”

[Matthew Hankins, via Justin Wolfers]

 

→ Bringing a hammer to a wiring problem…

You know the saying about hammers and nails. I do believe being a domain expert not only means knowing how to use what tool to what end, but also knowing when the tools of your domain are not the right ones for a job:

[Brian Timoney]

 


(Under the title Fabulous Finds I collect links that I have found interesting, relevant or inspiring for some reason, but that don’t squarely fit into the core themes of this blog. It’s only an experiment as of now.)

 

Orbemapa: ¿Un mapa turístico o una experiencia turística?

Los mapas turísticos tradicionales Los mapas turísticos que podemos conseguir en la oficina de turismo de cualquier ciudad tienen características conocidas por todos. Algunas de ellas son casi signo distintivo de este tipo de cartografía, hasta el punto de casi definir un estándar consuetudinario formado por: callejeros con monumentos destacados mediante el uso del…

Spatialists: Visualizing group sizes and inter-group flows

source

A few weeks ago, I came across the following graphics on Twitter:

They depict voter share per party (including absentees, in grey) (top) and voter flows between different parties in the 2015 cantonal elections in Zurich. The graphics are produced by sotomo, a research company at the nexus of science and practical application occupying itself with political and economic topics. I’m not sure if only the lower graphic or both have been produced jointly with the Swiss daily Tagesanzeiger, but I think only the lower graphic has been published in the newspaper.

Circles

These graphics pose interesting problems and both are connected to the circles:

The top graphic uses circles to represent voter shares. It’s of course hard to assess the relative sizes of the circles (the usual problem with such depictions). But this is clearly also not the point sotomo aims to make (there are no scales or quantitative labels of any kind). Instead, the point they want to drive home is – I think – that there is a very large share of people who didn’t vote in the elections – and that aspect of the graphic works.

(In parantheses: Even if this might shock you, it’s not very uncommon in Switzerland. Many pundits take it as a sign not of political apathy but rather of people generally being okay with how things are run around here.)

Aside: Scaling and judgement

In the 1950s, various scholars studied biases in perception, one of them being James Flannery. Based on earlier research on how people often judge relative sizes of circles wrongly, he introduced a so-called “appearance compensation” for circular diagrams. This algorithm would adjust relative sizes of circles in a manner that, on average, would compensate for the biased perception. However, nowadays most people argue that these methods should not be used anymore, but instead other means that support accurate perception of circular diagrams.

Flows and circles

Other than the first graphic that I kind of like in its simplicity and to-the-point message, I find the second graphic not ideal. The problem is in the legend and how it instructs us to use the graphic. Both circle size and width of the flow vectors encode the same property: number of voters supporting a party and number of voters who changed their endorsement of a party. Showing these properties is a nice idea, in my opinion. But how the authors chose to depict them damages the message as it is not possible to appreciate both the flows and the party support bases simultaneously and in relation to each other. Even given the legend with the circle representing 30,000 and the arrow representing 1,000 the comparison does not compute.

That’s a shame. I think the reason the authors chose this kind of diagram might have to do with the fact that this and similar diagrams have become very popular over the last few years. Also, they are relatively easily made for example with Gephi or D3.

However, there are clearly better alternatives, in my opinion. For example, the widely used D3 chord diagrams are capable to make the group sizes and the inter-group flows comparable (or, speaking within the above example, the party support and voter flows). An even nicer approach has been used in the UK General Election by The Guardian*. It avoids difficulties that are commonly associated with round graphics by basically unravelling a chord diagram onto a straight axis thereby creating a simple Sankey diagram.

The Guardian’s approach can show group size (party support in 2010, top, and 2015/projected, bottom) as well as the size of flows between the groups (voter flows, from top to bottom) clearly and simultaneously:

The graphic’s complexity is alleviated by the built-in interaction which always highlights only one party (either in 2010 or in 2015) and associated flows. Additionally, the Guardian team have disassembled the wins and losses of the individual parties into distinct static graphics, beneath this comprehensive one (not shown above).

In what clever ways do you visualise group size and flow size, simultaneously or not?

 

*: In the interest of full disclosure: I have assisted The Guardian with the UK General Election 2015 cartogram.

La Cartoteca: Atlasify, o cómo convertir términos de búsqueda en mapas

Hay vida más allá de Google, aunque en el mundo de las búsquedas de Internet sea el rey, o casi dios, al menos de momento. Atrás quedaron los añejos Altavista y el todavía presente pero rezagado buscador de Yahoo. Mientras tanto, Bing intenta seguir en la carrera que lidera el gigante de Mountain View. Por otra parte, sin querer competir con Google y el resto de jugadores en la partida de los buscadores, hay otras propuestas que son simplemente experimentales y hasta divertidas.

atlasify_silk_road
Ejemplo de búsqueda en Atlasify para el término “silk road” (ruta de la seda).

Es el caso de Atlasify, un buscador singular que convierte los términos de búsqueda en representaciones visuales bidimensionales. De momento cuenta con pocos marcos de representación, no va más allá de mostrar datos sobre mapas del mundo o en la tabla periódica de los elementos químicos y poco más (ejes cronológicos y algunas representaciones relacionadas con la política), pero promete ir creciendo con el tiempo. ¿Tiene utilidad? Bien, eso según se mire. Al tratarse de algo experimental (en Beta, claro está), siendo prácticamente un juego, puede que a primera vista no parezca útil, pero tiene su encanto y cierta enjundia.

atlasify_beer
Ejemplo de búsqueda en Atlasify para el término “beer” (cerveza).

Atlasify ha surgido de una colaboración entre la Universidad de Minnesota y la Universidad Northwestern. Está construido sobre la API de WikiBrain que, a su vez, se alimenta de la Wikipedia. Ahora mismo, la mayor parte de las salidas gráficas corresponden a las representaciones visuales en modo de mapa interactivo. Esa interactividad cae del lado de la Wikipedia, mostrando en los gráficos la información de las entradas relacionadas con la información solicitada. Atlasify incluye, además, un curioso juego para descubrir términos de búsqueda partiendo de representaciones ya completas (para eso hay que pinchar en el buscador sobre el llamativo icono de “This or That”).

| Vía Maps Mania |

Atlasify, o cómo convertir términos de búsqueda en mapas apareció originalmente en La Cartoteca, junio 20, 2015.

Geofumadas: Bentley Connection Event

Los grandes productos de Bentley Systems han sido hasta ahora, Microstation, ProjectWise y AssetWise y a partir de estos se amplía toda su oferta a las diferentes áreas de la Geo-Ingeniería.  Como les adelanté hace un año, Bentley ha incluido una cuarta apuesta a lo que ha llamado Connnect.

Entre los meses de Mayo y Noviembre de 2015, se estará llevando a cabo el gran evento de conexión de profesionales de las industrias de GeoIngeniería para las que Bentley Systems tiene soluciones.  El evento dura dos días y se realizará en 30 ciudades, en la que se presentarán más de 200 casos de uso y 60 ponencias magistrales bajo el nuevo paradigma de Bentley: CONNECT EDITION.

Bentley Connect

Las fechas de los eventos son las siguientes:

Philadelphia 18-19 May    Chicago 19-20 May    Oslo 19-20 May   Amsterdam 20-21 May   Toronto 21-22 May   Atlanta 2-3 June   Paris 2-3 June   Singapore 3-4 June

Los Angeles 4-5 June   Chennai 9-10 June   Milano 9-10 June    Prague 10-11 June    Houston Rescheduled  Madrid 16-17 June  Mexico City 23-24 June    Manchester 29-30 June 

Wiesbaden 1-2 July      Seoul 14-15 July    Tokyo 16-17 July     Beijing 6-7 August     Johannesburg 18-19 August     Brisbane 19-20 August    Sao Paulo 25-26 August    Mumbai 26-27 August

Calgary 2-3 September    Warsaw 29-30 September    Helsinki 6-7 October    Zhengzhou 15-16 October    Dubai 23-24 November    Moscow Fecha pendiente.

Como se puede ver, Bentley tira la casa por la ventana en este semestre, en busca de una visibilidad estratégica en la que Microsoft es el patrocinador principal.  Nada que no nos hayamos imaginado antes, y que seguro dará nuevas luces en el gran evento de Londres a finales de año.  Es muy claro que en este evento se estará presentando de manera oficial la modalidad de software como servicio, que cambia radicalmente la manera como se ha venido licenciando los productos de Bentley y que ahora podrá adaptarse a las tendencias mundiales.

En el caso de los países del contexto Iberoamericano, habrán eventos en Madrid, México y Sao Paulo, en las fechas arriba indicadas.

Es vital registrarse, si se espera estar al tanto de la ruta en que se están encaminando las tecnologías en el ciclo de vida de las infraestructuras.  Como ejemplo, les dejo la agenda de México que será los días 23 y 24 de Junio.

bentley connect

Introducción a CONNECT Edition

Alfredo Castrejón, Vicepresidente, América Latina, Bentley Systems

CONNECT Edition: Un nuevo paradigma en la ejecución de proyectos

Descubra cómo transformar la ejecución de sus proyectos. Sin importar cuál sea su función en un proyecto de diseño o construcción e independientemente de la envergadura de su proyecto, aprenda cómo aumentar su productividad individual y simplificar la colaboración en todo el  proyecto y para todos los participantes. Al mejorar la ejecución de los proyectos, aumentará su capacidad para entregar los mejores edificios, puentes, carreteras, centrales eléctricas, redes de servicios, minas y otros proyectos de infraestructura de manera puntual, conforme al presupuesto y con menos riesgos.

CONNECT Edition es el software de infraestructura de próxima generación de Bentley, que establecerá un nuevo paradigma en la ejecución de proyectos.

Conozca las innovaciones CONNECT Edition para MicroStation, ProjectWise y Navigator. Descubra de qué forma estas innovaciones aprovechan los últimos catalizadores tecnológicos, como servicios en la nube, táctiles, móviles, etc.

Phil Christensen, Vicepresidente, Sector marino y offshore, Bentley Systems

Gestión del ciclo de vida de la infraestructura pública

La urbanización genera un aumento en la demanda de recursos y, actualmente, se observa un mayor reconocimiento del valor de los sistemas de gestión de activos, para administrar los complejos procesos necesarios para operar una combinación variada de activos de infraestructura. Estos sistemas de gestión de activos ofrecen soporte a infraestructuras urbanas en carreteras, ferrocarriles, sistemas de tranvías, redes de alcantarillado y plantas de tratamiento, redes y plantas de tratamiento de agua y aguas residuales, redes de servicios de electricidad y gas, redes de comunicación, aeropuertos, parques, edificios públicos y gestión de tierras, entre otros. Aprenda de qué manera las soluciones de Bentley pueden contribuir a la gestión y al mantenimiento de infraestructuras urbanas y prestar servicios a los departamentos de obras públicas, a los servicios públicos administrados por municipios y a organismos a escala local, regional y nacional a lo largo del ciclo de vida de los activos.

Alfredo Contreras, Director Ejecutivo de Productos, Bentley Systems

BIM para ciudades: Del modelado a la realidad

Debido a la compleja naturaleza de los proyectos gubernamentales y al requerimiento de colaboración de los participantes en todas las disciplinas y proyectos, muchas ciudades están adoptando procesos BIM para convertirse en ciudades más sustentables.

Bentley ocupa un lugar privilegiado para ofrecer una verdadera solución habilitada BIM, que incluye desde la visualización 3D para modelado y diseño hasta el análisis de opciones para mejorar el rendimiento y una ejecución del proyecto mejorada, así como la fusión de los aspectos físico y virtual para obtener un modelo de datos completo e inmersivo a lo largo del ciclo de vida de los activos.

Fernando Lazcano, Ingeniero de aplicaciones, Bentley Systems

SIG federado con la potencia de Bentley Map

Municipios, organismos gubernamentales, empresas de servicios públicos, agencias de transporte, catastros y empresas de cartografía confían en los productos SIG para obtener servicios de topografía, toma de imágenes, mapeo, análisis, cartografía y otras rutinas geoespaciales. La cooperación y colaboración entre los departamentos municipales con una única fuente de datos puede convertirse en un verdadero desafío. El hecho de utilizar un SIG federado que aporte una única fuente de verdad mejora la ejecución del proyecto y la uniformidad de la información. Este tipo de sistema ayuda a tratar la rápida expansión de la infraestructura urbana y a modernizar los sistemas de información catastral para garantizar que diversos departamentos tengan acceso a datos cartográficos y catastrales precisos. Bentley ofrece capacidades SIG de primera categoría con un rango de productos geoespaciales
diseñados para afrontar estos desafíos.

Alfredo Contreras, Director Ejecutivo de Productos, Bentley Systems

Registrarse aquí

La entrada Bentley Connection Event aparece primero en Geofumadas.

Orbemapa: Mapa mundial del botijo

En forma de entrevista presentamos el mapa mundial del botijo, un mapamundi con las áreas adecuadas para la utilización de los botijos, en el que se representa también el número de meses que puede utilizarse y la temperatura máxima de refrigeración. ¿Cómo surgió la idea de hacer este mapamundi? Estamos trabajando con sistemas de…

La Cartoteca: Mapa de altitudes de líneas de ferrocarril de España

En una reciente visita al Museo del Ferrocarril de Madrid, me llamó la atención un curioso mapa sobre las altitudes de las líneas férreas españolas que ya tiene unos cuantos años a sus espaldas. Resulta interesante para ver cómo, con sencillos medios, se pueden conseguir modos de visualización de información compleja realmente atractivos (tengo que reconocer que no es demasiado intuitivo a primera vista, pero sí muy llamativo). En uno de los boletines del museo he encontrado más información sobre este curioso mapa:

El mapa de altitudes representa la situación de la red ferroviaria de vía ancha entre los años 1945 y 1951, dibujando las líneas con vía única y las de vía doble, bien electrificadas o pendientes de electrificación. Tiene una escala horizontal 1:1.300.000 y una escala vertical 1:20.000. En él podemos apreciar la máxima cota ferroviaria en España a cielo abierto –situada en La Cañada (Ávila), con 1.359 metros– y en túnel –con una máxima altitud de 1.495 metros, en la Collada de Tosas (Girona)–. Se creó tomando como base un mapa impreso de la red ferroviaria peninsular, cuyo autor no se ha podido determinar. Sobre dicho mapa se fueron perfilando las líneas férreas realizando hendiduras, para poder incrustar los perfiles longitudinales –elaborados en acetato– de cada una de las líneas.


Las siguientes fotografías fueron tomadas con un móvil durante la mencionada visita.

mapa_de_altitudes_de_lineas_3

mapa_de_altitudes_de_lineas_5

mapa_de_altitudes_de_lineas

mapa_de_altitudes_de_lineas_2

mapa_de_altitudes_de_lineas._6JPG

Mapa de altitudes de líneas de ferrocarril de España apareció originalmente en La Cartoteca, junio 14, 2015.

Spatialists: Fabulous Finds I

→ The real reason American passenger trains are so bad

“It’s not just that these services aren’t the best in the world and don’t deploy the most cutting-edge technology available. They are often truly abysmal, with travel times worse than what was possible 100 years ago.” [Vox]

Matthew Yglesias gives some interesting insights into the reasons for the state of US passenger rail, some historic, some geographic and many of them quite surprising to me.

[Matthew Yglesias, Vox]

 

→ Apple Watch’s Activity app UI is the same as the 8-yr-old PolarClock screensaver’s

It’s all in the title.

[Dane Baker, via Eli Schiff]

 

→ The Shadow in the Darkness

In this short film, Joe Bollard, who is blind, talks about his relationship with his guide dog. [Video, 7:22mins]

Click here to view the embedded video.

[BlackBox Documentaries, via kottke]


(Under the title Fabulous Finds I collect links that I have found interesting, relevant or inspiring for some reason, but that don’t squarely fit into the core themes of this blog. It’s only an experiment as of now.)

 

Orbemapa: Made in Spain cuando inventábamos nosotros

Made in Spain cuando inventábamos nosotros es una obra de Alejando Polanco Masa editado por Glypos. De la mano de una recopilación de crónicas muy documentadas Alejando desarrolla con un estilo ameno y directo un género muy particular en el que se ha convertido en todo un maestro: el de biografías de los inventos.…

Spatialists: Slide design and public speaking

I have a Slideshare account that I use to publish slides of presentations I’ve held (if it’s okay to publish them, which is the case only very occasionally). Sometimes Slideshare sends me e-mail news that I more often trash than skim.

But yesterday a post with the title Before & After: 4 Slide Makeover Tips caught my attention. You can always learn something new, thus I clicked and read. Spoiler alert: The whole post was not too interesting. The 4 tips are hardly news to anybody with some training in presenting (e.g. chose pictures and typography wisely).

But I found this interesting:

Before

 

After

The ‘before’ design has obvious flaws: It’s an exploded 3D pie chart (a no-no, on several levels as it distorts information), has a rather ugly colour scheme, uses a legend rather than direct labelling. It’s straight from the default settings of a spreadsheet program.

However, the ‘after’ design is also really interesting. I think it’s especially dysfunctional, for several reasons:

  • The pie chart has been separated into four small infographics. But it’s hard to extract the information from these infographics, as one has to first wrap one’s head around their workings. The pie chart on the other hand, with all its shortcomings, is a very familiar device for showing shares.
  • The dots make it hard to precisely appreciate the shares. E.g., in the second infographic it’s not readily visible at all that the two white dots represent a quarter of all dots. In a (2D) pie chart, we can eyeball a quarter really quickly though. The infographics seemingly try to make up for this shortcoming by adding explicit coding of the percentages.
  • The dots also give a (very likely untrue) impression of a discrete variable, as if the percentages of the four widgets can only vary by increments and decrements of 12.5%.
  • Inexplicably, the first infographic uses a different orientation (counter-clockwise from the 9 o’clock position) from the three remaining infographics. Also, the 9 o’clock origin seems like quite an arbitrary, non-obvious choice to me. Most intuitively, you would choose 12 o’clock, probably, mathematically, 3 o’clock.
  • To me, the yellow dots are far more attention-grabbing than the white ones. Thus, at first glance I thought the yellow dots are data elements and the white dots are no-data. But it’s the other way around.
  • The faux-analoge printing effect is pretty but confused me at first: It tricked me into thinking if the variable appearance of the dots encodes information (I’ll have to assume it doesn’t). I think this is due to the varying size of the white dots and the arbitrary overprinting of the yellow dots into the red background. Pretty, but a bit confusing in this instance.

I won’t comment on the rest of the slide design and the trade-offs and choices made e.g. with regards to the relative size of the actual content. I think these are partly personal taste and also that these choices have to be made with respect to the overall narrative, the wider slide deck design, the audience and the event and likely a few more factors.

 

Advice for public speaking beyond slide design

Much (most?) about public speaking is in the actual speaking (duh!). Thus, I want to point out two good (and not nearly known-enough) pieces of advice by the German writer Kurt Tucholsky (1890–1935): Advice for making a bad speech and Advice for a good speaker.

English translations of both texts can be found here. From the second:

Main clauses. Main clauses. Main clauses.

Clear concept in your head — as little as possible on paper.

Give either facts or appeal to sentiment. Use either sling or harp. A speaker shouldn’t be an encyclopaedia. People have one of those at home.

(…)

Do not strive for effects that are contradictory to your personality. A podium is an unforgiving thing — one is more naked than during a sunbath.

 

 

TANTO: GeoCetus: la banca dati italiana aperta sugli spiaggiamenti di cetacei e tartarughe marine

La Genesi

Verso la fine del 2011 nella mia casella di posta elettronica trovai un invito per una conferenza dal titolo “Gli squali nel Mediterraneo”, che si sarebbe tenuta di lì a pochi giorni a Pescara.
Ormai non ricordo più se il titolo fosse davvero quello, né chi fosse il mittente della mail, fatto sta che decisi di andare, spinto in gran parte dalla voglia di passare – dopo anni – una giornata ad ascoltare discorsi di biologia marina “pura” e prendermi una pausa dalle solite cose: gis, json, rest, php, cors, script, sql, ecc.
Dell’intervento principale sugli squali ricordo poco o nulla, non mi colpì granché, ma ricordo bene l’intervento del dottor Vincenzo Olivieri, veterinario e presidente della Onlus “Centro Studi Cetacei” (CSC), che non parlò di squali, ma di spiaggiamenti di cetacei, dei casi di studio più interessanti che aveva incontrato, di indagini sul campo e metodologie analitiche, del lavoro svolto dalla sua associazione e di tanto altro. Ciò che mi fece drizzare le orecchie, man mano che andava avanti, fu pensare alla quantità di datidati spaziali, probabilmente – che il Centro Studi Cetacei poteva (e doveva!) aver raccolto.
Le domande che avevo in testa erano: “Dove li terranno questi dati?”, “In che formato saranno conservati?”, “Saranno disponibili?”, “Saranno accessibili?”.
Al termine della conferenza andai dritto da Olivieri, parlammo una decina di minuti e venne fuori un accordo, direi uno scambio: il Centro Studi Cetacei mi avrebbe fornito i dati sugli spiaggiamenti dopo averli riordinati e organizzati il meglio possibile, visto che erano sparsi in vari fogli Excel, documenti PDF e addirittura qualche scheda cartacea e io avrei sviluppato, senza costi per il CSC, uno strumento informatico per consultarli in maniera semplice e veloce sul web. In cambio chiesi che il risultato di questo nostro sforzo congiunto fosse messo a disposizione come open data.
Ci tengo a sottolineare che questa mia richiesta venne accolta immediatamente e con entusiasmo, segno di un’apertura mentale da parte del mio interlocutore che, ancora oggi, non so quanto sia facile trovare tra i non addetti ai lavori.

Pronti, si comincia!

La primissima fase consistette in una serie di incontri con Vincenzo e con altre persone del CSC; il nostro obiettivo era individuare un minimo comune denominatore nelle informazioni in loro possesso e, partendo da qui, organizzare lo storico in maniera coerente e il più possibile ordinata.
Successivamente fu la volta di scegliere gli strumenti informatici da usare per dare vita al nostro progetto e, non avendo vincoli se non mantenere a zero i costi dell’operazione, decisi per uno stack tecnologico collaudato e completamente open source: PostGIS, GeoServer e OpenLayers. A dire il vero penso che questa sarebbe stata la mia scelta anche se avessimo avuto un budget da spendere!
Scelto lo stack, restava però il problema di mettere in piedi un server. Come molti di voi sapranno, anche se installato con solo software libero, un server ha comunque dei costi legati all’hardware e alla connettività, il che cozzava non poco con il vincolo del costo zero.
Ebbene, senza TANTO e Andrea, al quale parlai del progetto il giorno dopo la conferenza, l’idea sarebbe rimasta nella mia testa, inespressa nella pratica o, al massimo, sarebbe diventata l’ennesima demo in “localhost” sul mio computer.
Il server, alla fine, ce lo ha messo TANTO! Un hosting non da poco, con PostGIS e GeoServer belli e pronti, Apache e PHP per creare pagine web e, soprattutto, persone competenti a gestire l’infrastruttura.
A questo punto, con i dati che iniziavano a prendere forma ed il server pronto ad accogliere l’applicazione, per me era finalmente ora di entrare nel vivo e tirarmi su le maniche per produrre qualcosa di tangibile da mostrare a Vincenzo e al CSC che, nel ripulire, organizzare e armonizzare i dati storici, avevano passato parecchi giorni a lavorare.
Così all’inizio del 2012 venne fuori il primo output, un’applicazione di web mapping strutturata in maniera abbastanza classica e in grado di mostrare i punti dove erano stati effettuati i rilievi sugli animali spiaggiati e le informazioni ad essi associate su una mappa, una griglia ordinabile e dei grafici. Scegliemmo di chiamarla GeoCetus.

GC_webmap

I dati potevano essere filtrati su base annuale, adeguando le tre viste di conseguenza. Selezionando un punto, come lecito aspettarsi, compariva una scheda con tutte le informazioni di dettaglio ed era possibile scaricare tutti i dati disponibili in formato KML e CSV, ovviamente sotto licenza CC BY-SA. Nulla di eclatante, insomma, ma funzionale.
Questa prima versione si basava su una sola tabella PostGIS, denominata “spiaggiamenti”, un po’ di codice PHP per tirare fuori un GeoJSON – preferii non scomodare GeoServer in prima battuta – e la mia collaudata cassetta degli attrezzi JavaScript composta da OpenLayers 2.12, jqGrid e Google Charts.

Un buon inizio, ma serve sempre qualcosa in più

L’applicazione di web mapping prodotta non era male, nel senso che faceva quello che doveva fare in base ai requisiti concordati con il CSC e lo faceva discretamente: mostrava i dati e consentiva di interrogarli e scaricarli.
Ben presto, però, sorse la necessità di aggiornare la banca dati in modo che fosse sempre attuale ed utile, così pensai di ricorrere ad un foglio di calcolo su Google Drive. I nuovi dati sarebbero stati inseriti lì e poi, tramite uno script Python, trasferiti in PostGIS con una query SQL.
Lo script funzionava senza particolari problemi, però lasciava irrisolte due questioni importanti:

  • vincolare alcuni campi ad un dominio specifico di valori;
  • calcolare automaticamente il codice identificativo di ogni evento registrato, il quale doveva seguire uno schema preciso per non violare il vincolo di univocità.

Probabilmente lavorando un po’ di più allo striminzito script Python che avevo prodotto si sarebbe potuta trovare la soluzione ad entrambi i problemi, ma ho preferito creare qualcosa che girasse completamente sul nostro server e sviluppare un modulo gestionale in PHP con interfaccia basata sull’ottimo Twitter Bootstrap (all’epoca la versione stabile era la 2.3.2). Dopo qualche giorno di lavoro venne fuori il prototipo del modulo gestionale:

GC_manager

Questo modulo, accessibile solo agli utenti registrati sul database, costituiva uno strumento di facile utilizzo, tramite il quale chiunque poteva registrare un nuovo spiaggiamento senza incappare in errori grossolani, di distrazione e senza doversi preoccupare del codice di registrazione, che veniva compilato in automatico dal modulo stesso, sulla base delle regole stabilite.
Problema risolto? Certo che no! Le esigenze, man mano che GeoCetus e il suo modulo gestionale venivano utilizzati, divenivano ben maggiori del semplice consultazione e inserimento di nuovi dati. Occorreva spesso correggere o cancellare qualcosa e sarebbe stato bello anche poter allegare dei file per caratterizzare meglio i rilievi registrati.
Inoltre, nel frattempo, era saltata fuori anche la necessità di gestire i dati sulle tartarughe marine.
Come spesso accade, l’appetito viene mangiando.

GeoCetus diventa un portale

Per organizzare al meglio tutti le funzioni e i moduli previsti la cosa migliore era, sicuramente, ripensare l’applicazione in forma di un portale, così, dopo qualche mese di lavoro e svariati aggiornamenti a librerie e script vari, il risultato è quello che tutti possono vedere puntando il browser a questo indirizzo: http://geocetus.spaziogis.it.

GC_portal

Il portale prevede diverse tipologie di utenti, che hanno prerogative diverse sulla gestione dei dati e degli allegati. Ad ogni evento inserito sotto forma di punto è possibile associare fino a 3 foto e 3 documenti in formato PDF relativi a necroscopie ed analisi di laboratorio; a breve sarà possibile collegare anche dei filmati. Tutti i contenuti sono aperti, distribuiti sotto licenza CC BY-SA e messi a disposizione degli interessati sia sotto forma di servizi OGC che dei più comuni formati di file usati in ambito di geodati.
Ora, piuttosto che annoiarvi con l’elenco particolareggiato delle caratteristiche del portale, vi invito a consultare lo slideshow in calce al post e, soprattutto, a visitarlo in prima persona.
Piuttosto, mi preme dire che, per quanto ne so, ad oggi, quella di GeoCetus è la più completa banca dati sugli spiaggiamenti di cetacei e tartarughe marine dell’intero panorama nazionale, che si tratta di una banca dati libera ed accessibile e che, questo risultato, per quanto sia ancora passibile di miglioramenti, è stato raggiunto da un gruppo di volontari. Abbiamo investito parte del nostro tempo libero per dare vita a un progetto che, speriamo, diventi un riferimento per gli addetti ai lavori e, soprattutto, contribuisca ad innescare un clima virtuoso di collaborazione e condivisione delle informazioni anche da parte di altri soggetti.


L'articolo GeoCetus: la banca dati italiana aperta sugli spiaggiamenti di cetacei e tartarughe marine è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

Geofumadas: Migrar datos de Microstation Geographics a Oracle Spatial

Este es un reto común para muchos proyectos de Catastro o Cartografía, que en la época 2000-2010 integraron Microstation Geographics como motor de datos espaciales, considerando razones como las siguiente:

  • La gestión arco-nodo era y continúa siendo sumamente práctica, para proyectos catastrales.
  • El DGN es una alternativa atractiva, considerando su versionado en el mismo fichero, que no ha cambiado en 15 años, contrario a otros formatos en el que hemos visto muchas versiones incompatibles cada tres años.
  • En 2002 el software libre era un sueño lejano de lo que tenemos hoy.
  • Los estándares OGC no pesaban aun sobre el software privativo.
  • Los ficheros shp eran limitados para proyectos de alto calado y las bases espaciales todavía eran muy cerradas a esquemas no estandarizados que comprometían el rendimiento de los servidores… y la plata.
  • La conectividad remota era incipiente comparado con lo que ahora tenemos.

De modo, que implementar un SIG basados en un esquema “CAD vinculado” era una solución viable, pese que se sacrificaba la usabilidad para fines de presentación atractiva.  La API VBA era abundante para programar rutinas de gestión transaccional conectado a ProjectWise para el control de ficheros físicos y la posibilidad usar GeoWeb Publisher para análisis espacial desde el servidor, aunque la publicación se limitara a ActiveX en Internet Explorer (que en aquel año era el único navegador).

El problema es no haber evolucionado de manera gradual y en lugar de pasar a Geospatial Server o versiones más robustas de ProjectWise, querer hacer sobrevivir un GIS a partir de ficheros físicos, teniendo todo el potencial de Oracle Spatial licenciado y la capacidad de desarrollar.  De modo que ese fue nuestro reto.

image

1. La base de datos:  ¿Postgres, SQL Server o Oracle?

En lo particular, hubiera preferido el primero.  Pero cuando estás frente a un sistema transaccional no orientado a servicios pero funcionando bien, en el que parte de la lógica e integridad está como PL en la base de datos, el cambio a una base OpenSoure no es una urgencia.  No, a menos que tengas en meta desarrollar una nueva versión del sistema que no está en el plazo inmediato.

Tampoco se trata de hacer una acción talibán de menospreciar todo lo que huele a privativo.  De modo que quedarse con Oracle es una decisión sabia, si está funcionando bien, si el tamaño y exigencia es amplio, si está bien diseñada, protegida y si el soporte se está aprovechando.  Tema para otra ocasión.

Así que lo que quedaba era desarrollar funcionalidades para que la data se migrara a esta base, servicios de publicación y herramientas de gestión transaccional de datos vectoriales.

Por ahora dejo el post aquí, lo seguiré construyendo a piezas, porque ahora estoy emocionado para geofumar pero restringido de tiempo.

2.  Los datos: Migración de DGN a base espacial: ¿Oracle Buider o Bentley Map?

3.  La publicación: ¿Geoserver o MapServer? ¿OpenLayers o Leaflet?

4.  Construcción y edición, directo a Oracle Spatial. ¿Bentley Map o QGIS?

5.  Cliente para las municipalidades vía GML. ¿QGIS o gvSIG?

La entrada Migrar datos de Microstation Geographics a Oracle Spatial aparece primero en Geofumadas.

La Cartoteca: Novedades en Panoraudio 4.0

En el seguimiento que vengo haciendo en los últimos tiempos al proyecto Panoraudio (que ya es mucho más que un servicio online de mapas interactivos para clips de audio y que cada vez me gusta más), me han llegado las siguientes novedades:

Ahora existe la posibilidad de exploración en modo libre o guiado por el sistema, lo que le da mucha más plasticidad al conjunto. Igualmente, se han modificado y mejorado los iconos de las categorías, permitiéndose ahora la previsualización de contenidos en forma de imágenes en miniatura, lo que mejora bastante la usabilidad. En cuanto a las rutas, existe una nueva opción para habilitar rutas creadas por los usuarios.

He aquí algunos ejemplos recientes de lo que puede hacerse con Panoraudio:

Pincha en cada imagen para ampliar.
ayuda fotosmapa fotosraster grupofoto inicio xploraraster xplorarmapa

Novedades en Panoraudio 4.0 apareció originalmente en La Cartoteca, mayo 30, 2015.

Dynamick: Pricing table per temi WordPress: la mia libreria

In questi mesi sto sviluppando in nuovo tema WordPress e mi sono imbattuto nel risolvere il problema delle pricing table, ovvero come farle gestire agevolmente all’utente.

La necessità era appunto quella di dare all’utente un’interfaccia backend semplice da utilizzare e versatile, attraverso l’aggiunta delle righe e colonne senza limiti. L’altro requisito era quello di generare un codice HTML in linea con quello del tema HTML già pubblicato su Themeforest.

Per unire un’UX agile e la plasticità dell’output ho analizzato in rete i plugin disponibili per capire la strada da seguire: riutilizzare un plugin già fatto o cominciare lo sviluppo di una mia libreria. Ho trovato un buon plugin “Pricing Table” di WpEden e ho usato la sua versione free come base di sviluppo.

Da plugin l’ho trasformato in libreria da includere nella functions.php con il seguente codice:

/* Include Pricing table library */
include_once('inc/pricing-table/pricing-table.php');

L’intera libreria in questo caso l’ho aggiunta all’interno del mio tema nella cartella inc/pricing-table

L’interfaccia backend si presenta inizialmente come un nuovo post-type “pricing table”, dove vengono elencati i listini già creati con il loro shortcode da inserire nel post.

pricing-table-backend-1

La cosa interessante appare quando si modifica un listino prezzi. Gli autori di wpeden hanno creato un meta-box ad-hoc per gestire le righe e le colonne e il listino “speciale”, che solitamente viene evidenziato in qualche modo.

pricing-table-backend-2

Come si vede dallo screenshot qui sopra, i bottone “Add Package” e “Add Feature” consentono di estendere il listino per adattarlo alle proprie esigenze.

Questa versione è pensata per sviluppatori di temi WordPress, quindi la libreria genererà semplicemente l’HTML, mentre le direttive di stile dovranno risiedere nel foglio di stile principale del tema, style.css.

Trovate il codice nel repository github che ho creato appositamente. Aspetto i vostri commenti e soprattutto il vostri pull-request.

L'articolo Pricing table per temi WordPress: la mia libreria sembra essere il primo su Dynamick.

TANTO: Contribuiamo alla scrittura del Position Paper sul GIM

Questo articolo è apparso originariamente su www.big-gim.it.15 Giugno

In occasione del barcamp svoltosi nell’ambito del raduno Spaghetti Open Data 2015 (#SOD15) a Bologna, primo incontro pubblico per discutere del Geographic Information Manager, è stata proposta l’organizzazione di un “tavolo di lavoro” con l’intenzione di produrre un Position Paper su questa nuova figura professionale, da sottoporre all’Agenzia per l’Italia Digitale (AgID) perché possa esaminarne i contenuti ed esprimere proprie valutazioni in merito.

Questa iniziativa, promossa da Stati Generali dell’Innovazione, insieme alla Redazione di TANTO, alla comunità Spaghetti Open Data ed all’Università degli Studi “Link Campus University”, si rivolge alle associazioni, comunità ed ai singoli interessati ad approfondire gli aspetti salienti riguardanti questa nuova figura professionale.

Per contribuire alla redazione del Position Paper si può commentare questo documento condiviso, per avviare una discussione sul tema suggeriamo invece l’utilizzo della nostra mailing list.

Fino al 15 giugno prossimo sarà possibile contribuire alla stesura della versione finale di questo documento.

Per la stesura della versione preliminare del Position Paper sono stati di grande utilità i numerosi pareri e proposte raccolti attraverso il sondaggio sul ruolo del GIM eseguito dalla Redazione di TANTO, i successivi commenti lasciati nel documento contenente tutte le risposte al questionario pervenute, nonché le discussioni avvenute all’interno della mailing list, “luogo” creato per costruire insieme questa idea e renderla concreta.

Il contenuto di questa prima versione del Position Paper è articolato nei seguenti punti:

  • Introduzione
  • Razionale del Position Paper
    • Geographic Information Manager e Open Government
    • Geographic Information Manager e “Comunità Intelligente”
  • Il ruolo del Geographic Information Manager nell’ambito dell’organismo d’indirizzo della comunità intelligente
    • Profilo delle competenze del Geographic Information Manager
    • Condizioni perché il Geographic Information Manager possa agire con competenza
  • Formazione e sviluppo professionale del GIM
  • Gestione dei GIM
  • Quadro normativo di riferimento

Giovedì 18 giugno, presso la sede di Roma della “Link Campus University“ (Via Nomentana, 335, Roma) è prevista la presentazione pubblica del Position Paper e la sua consegna ad AgID. Nei prossimi giorni, su questo sito, sarà pubblicato il programma dell’evento.

L'articolo Contribuiamo alla scrittura del Position Paper sul GIM è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

Geofumadas: Construir un Dron, Proyecto científico de mi hijo

No parece que esta es la misma criatura que hace unos años me sorprendió con su genial estufa de gas metano.Construir un dron

El tiempo pasa más rápido de lo que parece.  Al menos se nota en las canas y la evolución de sus preguntas:

En lugar de pedir un nuevo juego para el móvil, me pidió una licencia para Sony Vegas.  Me gustó que no tiene gusto por piraterar.

Querer fabricarse su propio Dron, me ha parecido más que interesante.

Convencer a la maestra fue el primer reto, cuando dijo que algunos alumnos soñaban con proyectos que no solo parecían muy caros, sino que podrían salir fantasiosos.  Mi hijo cree que no era mala intención, sino un ligero desconocimiento.  Sobre todo cuando le explicó que los materiales los compraría con sus ganancias del canal de Youtube, vía PayPal.

De modo que vencer el proyecto implicó explicarle en palabras comestibles qué es PayPal, AdSense, Crowfunding y otros vocablos que no estaban en su diccionario.

1.  Los materiales para el Dron.

Esto hoy no es difícil.  Solo se compran en Internet, se mandan a una casilla postal en Miami y en menos de dos semanas están en la puerta de la casa.

Construir un dron

Cuatro motores, cuatro élices, cuatro frames, una motherboard, una batería Lipo, 4 controladores de hélices y 4 cables para conectar el radio con la tarjeta.

2.  El montaje.

La jornada fue más que educativa, pues hubo que aprender a usar destornilladores, imantarles la punta en un parlante, aprender a cortar cables, usar cautín y probar su calor con el dedo ensalivado.

De paso era necesario ir dándoles clases de expresión corporal y como defender un tema tan complicado bajo términos prácticos.

Construir un dron

Darse la primera quemada de uñas también estuvo incluido.

Construir un dron

Construir un dron

3.  La electrónica

Lo más difícil fue cuidar que no tocaran la placa y la fueran a dañar con pura estática.  Programar el mando fue relativamente fácil pero configurar las hélices sí que tomó tiempo… la noche llegó.

Construir un dron

Construir un dron

4.  Gajes del oficio.

Llegó medio día y nos dimos cuenta que nos hacía falta unos conectores, cinta aislante y algo para fijar los tornillos ante la vibración.  Primer viaje a la ferretería y comprar algo para almorzar, porque el día de las madres no hay nada en la cocina.

Construir un dron

Los malditos cables JR male to male no estaban en la lista de materiales.  Hubo que hacer malabares para conseguirlos.  También la tarjeta de programación venía de fuera de Estados Unidos, por lo que se debió solicitar otra vía DHL, algún día vendrá la otra desde China.

Construir un dron

Cuando no todo funcionaba, había que morderse las uñas buscando en Internet.  Ni modo.

Construir un dron

Y ante la desesperación, preguntarle a alguien por Skype, una pena que la resolución de la webcam es tan mala…

Construir un dron

En sus metas, un arquitecto y dos ingenieros en sistemas.

Construir un dron

Subimos unas fotos a Facebook, y ya tienen una oferta para filmar unas tomas aéreas. 

Aunque todavía les falta defender el proyecto en el aula, lograr que al menos se levante 50 centímetros y convencer a la maestra que las leyes físicas aplicadas son tan valiosas como el empecinamiento demostrado, para que los seleccione para tener un stand en la Feria.

También tengo que convencerlo que edite el video del proceso que grabamos, le ponga un toque de Guns n’ Roses de fondo y disfrute subirlo gratis al Canal de Youtube de Geofumadas.

Nada mal para ser su primer Dron.  Allí les cuento

La entrada Construir un Dron, Proyecto científico de mi hijo aparece primero en Geofumadas.

geomaticblog.net: III Edición Geocamp ES

A través de Geoinquietos Sevilla

El próximo 20 de junio se celebrará en Sevilla la tercera edición de la versión española de la Geocamp este año organizada por Geoinquietos Sevilla.

¿Qué es una Geocamp?

– Una desconferencia sobre temática GEO y software libre.
– Evento basado en el concepto de Barcamp y que se viene celebrando desde hace tiempo en Portugal.

El mundo de las tecnologías de la información geográfica (TIG) y el software libre está teniendo cada vez más peso en el mundo en que vivimos, tanto desde el punto de vista personal como profesional. Muestra de eso, en últimos años, se está generando un movimiento muy significativo formado por gente con grandes inquietudes sobre estos temas, a la par que están apareciendo cada vez más  profesionales del sector que participan en proyectos y jornadas de carácter nacional e internacional.

A partir de una de estas participaciones, concretamente en la Geocamp del año 2012 en Campo Maior (Portugal), nace la idea de crear un evento similar aquí en España, donde compartir experiencias y conocimientos sobre temas geo y software libre. Aquí está el germen de la Geocamp española.

Organizada por un grupo de Geoinquietos y apoyados por un conjunto de empresas e instituciones, la Geocamp es un evento con formato desconferenciaque intenta favorecer la participación y la colaboración, puesto que serán los propios participantes de la Geocamp los que conformen el programa de charlas el mismo día de su celebración, justo antes de comenzar. Por supuesto, está garantizada la participación de grandes nombres del mundo del software libre y de la geomática a nivel nacional e internacional.

La Geocamp 2015, que viene precedida de sus anteriores ediciones, realizadas en La Coruña y Vigo, respectivamente, se celebrará en el Parque del Alamillo, parque metropolitano que discurre entre el municipio de Santiponce y la propia ciudad de Sevilla y es de acceso libre (previo registro) y gratuito. Además, se ofrecerá a los asistentes coffe break y almuerzo para reponer fuerzas, regalos, etc., así como alguna sorpresa final. Todo esto gracias a los patrocinadores del evento.

Patrocinadores III Geocamp.es

Para estar atentos a todas las novedades sobre la Geocamp 2015 está disponible su portal web (http://geocamp.es/) y el blog de Geoinquietos (http://geoinquietos.blogspot.com.es/), así como sus perfiles de Twitter y Facebook.

Página de registro: http://geocampes2015.eventbrite.es/

¡Os esperamos en Sevilla!

Fuente de la foto original: https://flic.kr/p/ambxAZ


Archivado en: eventos

neogeo: Rien que pour vos yeux…

Jeu de données attendu depuis longtemps par tous les aficionados de la cartographie statistique, les Contours… IRIS® de l’IGN sont désormais disponibles en licence ouverte. Oui, c’est ouvert mais c’est une marque déposée de l’INSEE comme l’indique la base de données de l’INPI. D’où le ®. Ce qui est rigolo, c’est que les trois points de suspension après Contours font partie intégrante de la marque. On peut le voir comme pour souligner le côté flou ou flottant de ces contours, dont on aurait du mal à cerner les limites. Et c’est vrai que quand on creuse un peu le sujet, on se pose vite des questions.

Pour ceux qui n’auraient jamais été dessillés sur le sujet, reprenons un peu la généalogie de ce jeu de données (oui, je parle comme j’INSPIRE maintenant). Les IRIS sont des subdivisions communales construites par agrégations d’îlots (voir la documentation officielle) à vocation de représentation statistique plus fine que la commune. Ils ont été définis par l’INSEE pour le recensement de 1999, et ont porté alors à l’occasion le joli nom d’IRIS2000 (c’était l’époque où on regardait encore K2000 à la TV, et le directeur de la statistique de l’époque était fan de David Hasselhoff, qui fait d’ailleurs son grand retour actuellement avec son clip True Survivor que je conseille à tous, même s’il faut se fader 30 secondes de pub avant d’en profiter). Bref, pour les communes de plus de 10000 habitants et certaines de plus de 5000, l’INSEE établit donc des subdivisions, calées sur la voirie avec donc des délimitations genre « de la droite de la Rue du Marteau entre les n° 12 et 146 à la gauche de la Rue du Sabot, ce qui rend franchement agréable le travail de numérisation. C’est pour cela que ce jeu de données était revendu par quelques officines seulement qui, partant du fait que le boulot était éminemment pénible et qu’il s’adressait essentiellement à des activités de géomarketing où on se fait de la thune, le faisaient payer plus cher que l’ArcMap (pas de ® ici, vous pouvez aller déposer la marque) qui servait à les visualiser.

Comme à chaque fois qu’un jeu de données dépend d’un autre (ici la voirie), son cycle de vie devient un peu compliqué. Car si la description des IRIS donnée par l’INSEE ne change pas, leur représentation graphique dépend de la base de données voirie utilisée. Certes ce sont principalement des axes importants qui servent de limites, mais des différences subtiles peuvent exister entre bases voirie, et perturber le bon déroulement d’un géocodage à l’IRIS par exemple si on n’utilise pas la même base voirie pour travailler. Et comme évidemment les IRIS ont été régulièrement révisés pour s’adapter aux évolutions démographiques, il faut co-utiliser les bonnes versions chaque.

On ne peut donc que se réjouir de l’ouverture de cette donnée, et sachant ce que nous savons, nous intéresser à sa généalogie dans la documentation fournie. On y apprend (paragraphe 1.3.1) que la géométrie provient d’un GEOROUTE®, recalé sur un référentiel proche du RGE® IGN (mais pas tout à fait le RGE donc) et enfin généralisé. Les communes non subdivisées sont issues du GEOFLA® comme les limites des communes subdivisées pour garantir la cohérence du tout. Il est donc par ailleurs précisé que « La géométrie des contours d’Iris étant issue d’une généralisation des limites fournies par l’INSEE, les requêtes spatiales fines à l’adresse ou au bâtiment doivent être effectuées avec Iris… GE (Grande Échelle), produit IGN compatible géographiquement avec la précision de ces données. » On vous explique donc que pour du travail de précision il faudra plutôt utiliser un autre produit, ce qui peut sembler de bonne guerre puisque c’est la précision qui fait la valeur. La documentation IGN est d’ailleurs fort bien fait puisqu’elle illustre l’étape de généralisation par cette image :

Exemple

On y comprend que la source IRIS… GE proposée en bleu est transformée en Contours… IRIS® montrée en rouge après un bon exercice de généralisation. Tout est donc clair.

Sauf que… Quand on récupère le jeu de données (qui est en fait une collection composée de jeux départementaux préalablement regroupés par régions désignées par leur code. Il va falloir réviser la nomenclature) et qu’on l’examine, on y trouve des géométries plutôt similaires à IRIS… GE et donc non généralisées :

Iris... Contours

On est donc tenté de superposer tout ça avec les limites de communes issues du GEOFLA®, pour voir… que rien ne colle…

GEOFLA

Alors on inspire un grand coup, et on va voir un vieil épisode de K2000 parce que tout ça est finalement bien trop compliqué pour nous. Mais on a hâte que grâce à l’OpenData le citoyen lambda prenne son destin en main et utilise toutes ces données à bon escient…

 

MISE A JOUR DU 7 MAI 2015

L’IGN vient de mettre en ligne une version 2.0 des Contours… IRIS® 2014 avec des géométries parfaitement alignées sur celles du GEOFLA Communal. On peut donc féliciter l’IGN pour sa réactivité et se précipiter sur le nouveau jeu de données ! Autre amélioration, plus pratique : les différents shapefiles départementaux sont désormais tous dans le même répertoire et non plus classés par code région, ce qui rend beaucoup plus facile leur manipulation.

iris

neogeo: Un petit peu de Docker

Docker est sous les feux de la rampe depuis maintenant un an et demi environ. Après l’engouement des early-adopters, toujours prompts à porter au pinacle une nouvelle technologie et à l’abandonner aussi facilement pour une autre quelques temps après, il est sans doute temps de prendre un peu de recul et essayer de comprendre comment marche Docker et à quoi il peut bien servir.

Qu’est-ce que Docker ?

Commençons par dire ce que Docker n’est pas ! Ce n’est pas une technologie de virtualisation à proprement parler, ça ne permet pas de créer des machines virtuelles, mais des containers. La différence fondamentale tient à ce qu’une machine virtuelle s’exécute sur une abstraction de la couche physique, exposée par la couche de virtualisation et lui faisant par exemple croire qu’elle dispose d’un CPU, de 4 Go de RAM et de deux interfaces réseau alors que le serveur physique sous-jacent est très différent. La containerisation est un peu différente puisqu’elle résulte de l’isolation d’un ensemble de ressources (CPU, mémoire…) et de process qui le rendent complètement étanche à son environnement direct, le système hôte, dont il partage uniquement, mais c’est une différence importante avec les système de virtualisation, le kernel (noyau).

Ceci est illustré sur le site officiel de Docker par les schémas suivants :

vmSchéma avec Docker

On peut y voir à gauche l’empilement classique d’un hôte de virtualisation, avec un hyperviseur exposant aux VM les ressources sélectionnées. A droite, la couche « docker engine » est plutôt une couche d’orchestration et de référencement de containers fonctionnant de manière isolée sur l’hôte principal dont il partage le noyau. Docker ne fonctionne donc nativement pour l’instant qu’avec Linux, de même que les containers ne peuvent contenir que des logiciels Linux. Dans le container, on va donc trouver toute la pile applicative nécessaire au fonctionnement de l’application voulue, depuis les librairies système (glibc par ex.) jusqu’aux exécutables finaux.

Plus qu’une technologie, un écosystème.

Jusqu’à présent, la description ainsi faite de Docker pourrait avoir été presque identique s’il s’était agi de LXC, la technologie Linux sous-jacente sur laquelle Docker s’appuie. Sauf que si Docker a du succès, c’est un peu comme GitHub car il a su mettre en place un écosystème complet autour de sa technologie. En effet, sur le site docker vous trouvez des images vous permettant de lancer très facilement des containers pré-configurés de WordPress, ElasticSearch, MySQL, PostgreSQL. Ainsi, il suffit de lancer une commande simple de type « docker run -d neogeo/mapserver » pour lancer une instance de MapServer 7.1 configurée par nos soins sur votre système, isolée du reste de votre OS, mais accessible par le port prédéfini 80 (que vous pouvez aussi mapper vers un autre port de votre hôte). L’interpréteur docker vous permet ainsi de lancer des containers, de les arrêter, d’en construire vous-même et de les publier sur le dépôt central.

Dès lors, il est très facile de trouver des images intéressantes, de les tester, voire de s’appuyer dessus pour en construire de nouvelle. Car Docker a ceci de particulier qu’il référence le contenu des containers en une multitude de couches, les Layers, qui sont partageables entre plusieurs instances de containers. De la sorte, si vous lancez trois Docker Ubuntu, l’image elle-même et ses centaines de Mo ne sera pas répliquée trois fois sur votre système, mais utilisée à partir de la même origine. Donc économie d’espace, et surtout, dès que l’image a été récupérée une fois, lancement instantané des nouveaux containers.

OS ou pas OS ?

C’est une question existentielle qu’on se pose assez rapidement après avoir essayé Docker. Quand on voit toutes ces images Ubuntu, Debian ou CentOS, on s’interroge légitimement… Pourquoi charger un OS, on m’avait dit que Docker s’appuyait sur celui de l’hôte ? En effet, mais uniquement à bas niveau, sur le kernel. Dès lors, il faut quand-même installer dans le container tout ce qui permet au système de fonctionner (librairies diverses, applications de bas niveau telles que bash…). Et c’est donc des OS simplement allégés de leur kernel qu’il s’agit de déployer à l’intérieur des containers. Ce qui explique les différentes déclinaisons des principaux OS Linux, ou même de dérivés spécialement dédiés à Docker tels que CoreOS. Il y a aussi une distribution dédiée à la machine hôte (celle qui héberge les dockers), RancherOS.

Configuration

La configuration d’un modèle de container se fait via un fichier nommé Dockerfile, qui contient les différentes instructions de construction, depuis l’image de base (OS) à utiliser jusqu’aux composants à y installer et aux options à spécifier. Certaines configurations peuvent être très complexes, et il sera nécessaire à chacun de bien s’immerger dans le sujet afin de commencer à la maîtriser. D’excellentes ressources sont évidemment disponibles sur le web (mais sont parfois contradictoires quant à certaines méthodes d’optimisation, preuve que le sujet est vraiment neuf) et le meilleur point de départ est sans doute le site Docker lui même et ses dockerfile best practices.

Repenser les architectures

Au-delà des aspects techniques de son utilisation, Docker enjoint à s’interroger sur les architectures à mettre en place. La vocation assumée de Docker est en effet de faire tourner des micro-services. A la différence de machines virtuelles dans lesquelles on va reproduire ce qu’on aurait mis dans une machine physique (un serveur web, différentes applications et modules), le mode Docker incite à découpler tout ce qui peut l’être. Pour une simple application web, on peut par exemple utiliser 3 containers différents : un pour le serveur web et l’application proprement dite, un pour un serveur de base de données, un pour les données de la base de données, de manière à pouvoir mettre à jour et manipuler chacun des containers sans impacter les autres aspects de l’architecture. Vu la facilité associée de déploiement des containers, et de chaînage des containers entre eux, on est vite conduit à décomposer l’architecture applicative, à la déconstruire pour se diriger vers un ensemble de micro-services distribués. L’API part ici, l’admin par là, autant de containers différents pour des rôles applicatifs différents, avec l’avantage notable de faciliter les mises à jour différenciées et l’isolation de certains services.

Pour bien illustrer ce propos dans le contexte géomatique, on peut se pencher sur des services WMS/WFS. En appliquant les principes de Docker, on va pouvoir composer des containers dédiés à un service en particulier. Si on utilise MapServer, exemple pris au hasard, on peut très bien avoir 1 container pour 1 instance nginx + mapserver + 1 mapfile (qui peut par ailleurs être partagé sur la machine hôte de manière à être facilement modifiable par l’administrateur, ou partageable avec un autre container). Ainsi on fait glisser la sémantique applicative de « serveur OGC » à « services OGC », indépendants les uns des autres, même s’ils partagent un même modèle initial de container.

Conclusion

Les technologies de containerisation, et Docker en particulier, sont récentes et encore immatures par certains aspects. Mais elles bénéficient d’un développement très rapide (il est très difficile de suivra l’actualité de Docker tant l’effervescence est grande sur le sujet) et de nouveaux outils de plus haut niveau de configuration ou d’orchestration (Docker a récemment dévoilé Compose et Machine) permettent de s’affranchir de la relative rusticité des outils de base en travaillant à un niveau d’abstraction plus élevé. Un sujet à suivre, de toute évidence, car au moins autant que la virtualisation en son temps il porte les germes de pratiques réellement innovantes.

 

geomaticblog.net: Dear OSM, just chill out.

This is kinda a reply to Gary Gale’s “Dear OSM, it’s time to get your finger out“. The more I read that, the less sense it makes to me.


Update 2015-04-30: Read also Richard Fairhurst’s Realpolitik and the OpenStreetMap License and Simon Poole’s Is OSM business unfriendly?

I think of myself as a Linux nerd. I consider myself a hacker. And I’ve spoken so many times about open/libre licensing in conferences the issue became boring.

A couple of years ago, a psychologist asked me a question as part of a job interview: What makes you angry?. And my response was clear: Things not working and logical fallacies. So my brain hurt a little when I read these particular sentences in Gary’s blog post:

There are really only three sources of global mapping […]: NAVTEQ, TeleAtlas , and OpenStreetMap. […]

Surely now is the moment for OpenStreetMap to accelerate adoption, usage and uptake? But why hasn’t this already happened?

See, a tiny part of my brain screams “fallacy“. «OpenStreetMap has things in common with NAVTEQ and TeleAtlas, ergo it has to play in the same field and by the same rules as NAVTEQ and TeleAtlas».

Maybe OSM was given birth by SteveC to cover the lack of affordable datasources, and then a way for him and his VC-fueled CloudMade to compete with them. But for me and a whole lot of nerds, OSM basically was, and still is, a playground where we can run database queries all night long. OSM is a wholly different animal.

In 2010 I argued that Geo businesses and Geo hackers are playing the same game, but with different goals, which makes for an interesting game; a game in which it would be foolish to think that the opponent will play for the same goal as you. You have to play this game to maximize your score, which is not a synonim of decreasing the opponent’s score.

In other words: when I put something into OSM, I don’t frakking care what happens to NAVTEQ or TeleAtlas. The same way when I cook something for friends I don’t care what happens to the local pizza joint.

See, maps are an infrastructure. In Spanish GIS circles, specially those around the Spanish NSDI, cartography is often called “the infrastructure of infrastructures” You need maps to plan roads, power lines, land zoning. You need stupidly accurate maps to collect taxes based on how many centimeters square your house has, or to give out grants based on exactly how many olive trees you own.

During the late 2000’s I heard a lot of criticism about OSM. But most of it didn’t come from data-collecting companies – it came from public servants. “Volunteers use cheap GPS with low accuracy, OSM will never be accurate”, they said. “The OSM data model cannot be loaded into ArcGIS and won’t be of any use”, they said. “OSM data will never be authoritative”, they said. And a few years later, this happened:

That, right there, is the Guardia Civil (who are public servants) in a freakin’ control room using OSM for freakin’ pan-european coastal border patrols. Which means OSM is a freakin’ de facto infrastructure for sovereignty.

Fact is, government agencies play a wholly different game than commercial providers. The goal of a govt’ agency (and specifically those which maintain infrastructures) is to provide a service to citizens, not to make money. As a thought exercise, think about the public servants who place the border milestones, or the ones checking road surface quality, and guess how many fucks they give about NAVTEQ or TeleAtlas.

OSM is about the ownership of infrastructure. It’s about the efficiency of copyright law. It’s all about the digital commons, dammit.

And this is where I kick a wasps’ nest by turning this post into a political one.

A capitalistic liberal will argue that infrastructure is better handled by competing private entities, renting it to citizens for a fee. But remember, I’m a Spaniard, and that means that I’ve seen infrastructures such as power lines, water companies, telcos, motorways, airports and banks privatized under the excuse of theoretically running more efficiently in private hands. We have a nice word for what happened in the real world: “expolio“, which english-speakers might translate as “plunder”.

Thanks but no, thanks. I want infrastructures to be as close to the commons as possible. Maybe it’s because I now live in the land of the dugnad, and my bias makes me see maintaining the commons as beneficial for the society as a whole.

So when you look at OSM (or at the Wikipedia, for that matter) you’re really looking at a digital common good. Which puts OSM in the same basket as other digital common goods, such as programming languages, the radioelectric spectrum, technical RFCs, or state-owned cartography. Now go read the tragedy of the digital commons.

It’s sad to live in a world where the money-making is held above many commons, even at the expense of the commons. Fortunately it’s difficult for a private entity to pollute air, water or the radioelectrical spectrum without going unnoticed, but unfortunately copyright law cares next to nothing about intellectual commons.

<rant>Please, someone explain to me how giving me intellectual ownership of something I thought about until 70 years after my death makes me think about better things; then explain to me how that reverts into the common good. </rant>


TL;DR: Dear OpenStreetMap: just chill out and don’t listen to what they say. Corporations may come and go, but a common infrastructure such as you is here to stay.


Archivado en: opinión

年会費無料のETCカードってあるの?: シェル スターレックスカードについての判断

昭和シェル石油をガソリンスタンドとして利用しているならシェルスターレックスカードはとてもお勧めです。

 

シェルスターレックスカードを使えばガソリン代をキャッシュバックしたり自分の欲しい商品に交換したりできます。

なので昭和シェル石油を利用しているならシェルスターレックスカードを作らないとむしろ損かもしれません。

 

他にもいいところが沢山あります。

まず初年度は年間費がかかりません。

 

2年目以降は1,350円がかかってくるのですが、スタープライズコースを選択していて年間24万円以上利用していると年会費を無料にすることができます。

後はニコスのサービスが付帯されており保険や優待割引などを受けることができます。

 

それに毎月10日と20日は1.5倍の値引きをしてくれるのでこの日に給油すればかなりお得になります。

ただシェルスターレックスカードには残念な点もあります。

 

それは他社と値引き額を比べるとあまりいい数字ではないという点です。

毎月給油する日を考えて、なおかつ年間費を無料にするために24万以上を利用してガソリン代のキャッシュバックも受ければ他社と比べても何の見劣りもありませんがそういったサービスを受けずにただ利用するとなるとあまり魅力的ではないかもしれません。

 

ですが24万円以上というのも普段の支払いなどをこのカードで行えば簡単に達成できる金額だと思いますしガソリン代のキャッシュバック等もスタープライズコースを選択していれば簡単に受けることができるので、特に難しいことではありません。

なので総合的に見ると持っていた方がいいと言えます。

Γεωπληροφοριακά Νέα: Το δημοφιλές παιχνίδι Pac-Man τώρα στο Google Maps!

Η Google με αφορμή την Πρωταπριλιά, αποφάσισε ο κάθε χρήστης κάνοντας είσοδο στο Google Maps, να μπορεί να παίξει το διάσημο παιχνίδι σε όποια περιοχή θέλει.

Πατώντας το εικονίδιο με τον λαβύρινθο στο κάτω αριστερό μέρος της σελίδας στο Google Maps, και αφού έχετε μεταφερθεί στην περιοχή που θέλετε, η περιοχή που επιλέξατε γίνετε παιχνίδι.

pacman1   pacman2

 

Περισσότερες πληροφορίες εδώ.


Dynamick: Wiko Ridge 4G: la recensione di dynamick.it

Abbiamo avuto modo di provare il nuovo Wiko Ridge 4G, uno smartphone che mette insieme potenza di calcolo, eleganza e un prezzo contenuto.

Wiko Ridge 4G è un gioiellino europeo, per la precisione francese di cui poter andar fieri. E’ un modello di ultima generazione, già 4G, ed è tagliato per chi pretende buone prestazioni e non vuole spendere un patrimonio.

ridge-peso

Caratteristiche

Comincio elencando le caratteristiche oggettive principali:

  • CONNETTIVITÀ: 4G LTE 800/1800/2100/2600 MHz
    H+/3G+/3G WCDMA 900/1900/2100 MHz
    GSM/GPRS/EDGE 850/900/1800/1900 MHz
  • SISTEMA OPERATIVO : Android™4.4.4 (KitKat)
  • PROCESSORE : Qualcomm Snapdragon 410 MSM8916, Quad Core 1,2 GHz, Cortex A53
  • SIM CARD : 1 Micro SIM + 1 Nano Sim o Scheda SD
  • DESIGN : Soft touch con effetto pietra
  • COLORI DISPONIBILI : Nero/Silver, Nero/Bleen, Nero/Clementina, Bianco/Gold
  • DIMENSIONI : 143*72*7.5 mm
  • PESO : 125g (con batteria)
  • BATTERIA : 2400 mAh Li-Po
  • STANDBY : Fino a 247 ore
  • AUTONOMIA IN CONVERSAZIONE : Fino a 14,66 ore (3G), fino a 17 ore (2G)
  • ROM : 16 Gb
  • RAM : 2 Gb
  • MEMORIA ESPANDIBILE : Fino a 64 Gb con Micro SD
  • ACCELEROMETRO :
  • BUSSOLA (MAGNETOMETRO) :
  • RILEVATORE DI PROSSIMITÀ :

Le nostre impressioni

La leggerezza del dispositivo è la prima caratteristica che si apprezza non appena lo si prende in mano: solo 125 g per un dispositivo di medie dimensioni (5″ di display) contro i 137g di un iPhone 4 di 3,5″.

La fluidità e la prontezza di risposta rendono davvero divertente l’utilizzo di Ridge 4G. Tutto questo grazie al suo super processore  Snapdragon quattro core 64-bit a 1,2GHz con ROM a 16Gb già pronto per la prossima release di Android, il Lollipop.

Altra caratteristica da segnalare è il display da 5 pollici con risoluzione 1280×720 pixel molto ben definito e dai colori brillanti e protetto dal vetro Corning® Gorilla® Glass 3 anti graffio. Messo a confronto con il OnePlus One (smartphone che consideriamo tra i top gamma del momento) il Ridge 4G ha una marcia in più, con bianchi più intensi e maggiore profondità di colore.  Abbiamo apprezzato la qualità del display, punto dolente in smartphone di questa fascia, perché spesso i produttori tendono a risparmiare su questo importante componente per abbassare il costo.

wiko-ridge-scocca

Curiosa è la scelta dei materiali della scocca perché è la stessa del OnePlus One SandStone. Viene chiamato Soft Touch con effetto pietra, un materiale simile alla pietra pomice, con un effetto al tocco simile al velluto, sensazione particolare e interessante. Anche in questa scelta si nota nessuna rinuncia qualitativa.

La fotocamera ben si abbina al display: si tratta di una Sony da 13 megapixel con flash Philips. Provate ad indovinare? E’ stesso sensore del OnePlus One. Neanche a dirlo, le foto danno grosse soddisfazioni a chi pretende ottimi risultati. Queste alcune foto scattate in modalità macro, primo piano e HDR (abbiamo dovuto ridurre le dimensioni, da 4160×3120 pixel a 1024×768 pixel e comprimerle per poterle pubblicare sul web):

Macro Primo Piano HDR

Tra le limitazioni che abbiamo notato, troviamo in primis una dotazione scarsa di RAM, solo 2GB. Il produttore evidentemente ha risparmiato sulla memoria, ma ha anche pensato di lasciare all’utente la possibilità di poterla espandere utilizzando il secondo slot della dual-sim per poterci installare una microSD al posto della nano SIM.

Prezzo e dove si compra

Wiko Ridge 4G sarà disponibile sul mercato da marzo e si potrà trovare nei negozi delle più grosse catene italiane (MediaWorld, Trony, Euronics, Expert). Il prezzo consigliato è di 229€. Se avete bisogno di cambiare smartphone vi consigliamo di valutarlo, magari andandolo a provare: non vi deluderà, garantito!

L'articolo Wiko Ridge 4G: la recensione di dynamick.it sembra essere il primo su Dynamick.

geomaticblog.net: Mapping Party en Poio, Pontevedra

El sábado 11 de abril en el Centro Xaime Illa de Raxó (Poio) llega la fiesta de las fiestas, la Mapping Party Poio’15 con el objetivo de pasarlo bien mientras aumentamos los datos geográficos de la costa de Poio con una licencia libre.

http://www.openstreetmap.org/export/embed.html?bbox=-8.757382929325104%2C42.403051783861024%2C-8.752903640270233%2C42.40485013856018&layer=mapnik&marker=42.4039509676542%2C-8.755143284797668

Este taller está organizado por la asociación de software libre Xeopesca y cuenta con la colaboración del Concello de Poio y las asociaciones SCD Raxó y ACDeM Armadiña.

Horario

  • 10:00-11:00 Presentación de OSM, organización de equipos para la zona a cartografiar.
  • 11:00-14:00 Trabajo de campo con explicaciones de como emplear osmAndroid.
  • 14:00 -16:00 Comida.
  • 16:00-20:00 Trabajar con las computadoras para el volcado de los datos OSM
  • 20:00-20:30 Clausura del curso.

Asistentes

El número de asistentes será de 25. La selección de los candidatos se realizará por orden de inscripción. Se recomienda la disposición de cualquiera de los siguientes dispositivos:  GPS, teléfono con GPS y cámara digital.

Formulario de Inscripción

Para inscribirse a Mapping Party Poio’15 cubre el formulario. (ver aquí) (poio.xeopesca.gal) .

Material fungible

Se hará entrega a cada uno de los asistentes de un bloc de notas, un bolígrafo y un lápiz.

Redes SociaLes

Establecemos el hashtag #mappingpartypoio para seguir el evento a través de las redes sociales. Además también puedes seguir la  Mapping Party Poio’15 a través de twitter mediante el hashtag #mappingpartypoio o en la  página de facebook de XeoPesca.

 

SITIO WEB OFICIAL

http://poio.xeopesca.gal/

 


Archivado en: GIS

Γεωπληροφοριακά Νέα: Πρόσκληση εκδήλωσης ενδιαφέροντος για εκπαίδευση στη «Περιβαλλοντική Πληροφορική»

LOGO1

Το Πανεπιστήμιο Αιγαίου σας προσκαλεί να συμμετέχετε στο Πρόγραμμα Επικαιροποίησης Γνώσεων Αποφοίτων ΑΕΙ (ΠΕΓΑ) στο πλαίσιο υλοποίησης της Πράξης «Περιβαλλοντική Γεωπληροφορική», του Επιχειρησιακού Προγράμματος «Εκπαίδευση και Δια Βίου Μάθηση»
Το πρόγραμμα υλοποιείται από το Πανεπιστήμιο Αιγαίου (Τμήμα Γεωγραφίας, Τμήμα Κοινωνιολογίας, Τμήμα Περιβάλλοντος, Τμήμα Επιστημών της Θάλασσας, Τμήμα Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων) σε συνεργασία με το Πάντειο Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών (Τμήμα Οικονομικής και Περιφερειακής Ανάπτυξης), το Πανεπιστήμιο Πατρών (Τμήμα Αρχιτεκτόνων Μηχανικών), το Δημοκρίτειο Πανεπιστήμιο Θράκης (Τμήμα Μηχανικών Περιβάλλοντος), το Χαροκόπειο Πανεπιστήμιο Αθηνών (Τμήμα Γεωγραφίας), το Πανεπιστήμιο Θεσσαλίας (Τμήμα Μηχανικών Χωροταξίας, Πολεοδομίας και Περιφερειακής Ανάπτυξης), το Τ.Ε.Ι. Αθηνών (Τμήμα Πολιτικών Μηχανικών Τ.Ε. και Μηχανικών Τοπογραφίας και Γεωπληροφορικής Τ.Ε. – Κατεύθυνση Μηχανικών Τοπογραφίας και Γεωπληροφορικής Τ.Ε.) και το Τ.Ε.Ι. Κεντρικής Μακεδονίας (Τμήμα Πολιτικών Μηχανικών Τ.Ε. και Μηχανικών Τοπογραφίας και Γεωπληροφορικής Τ.Ε. – Κατεύθυνση Μηχανικών Τοπογραφίας και Γεωπληροφορικής Τ.Ε.).
Το πρόγραμμα απευθύνεται κατά προτεραιότητα σε αποφοίτους ΑΕΙ (Πανεπιστημίων και ΤΕΙ) τμημάτων αντίστοιχου ή συναφούς αντικειμένου με το περιεχόμενο του προγράμματος, ή αποφοίτους αντιστοίχων τμημάτων της αλλοδαπής. Στην περίπτωση μη πλήρωσης των απαιτούμενων θέσεων θα εξετάζονται υποψηφιότητες με αποδεδειγμένης επαγγελματικής δραστηριότητας σχετικής με το περιεχόμενο του προγράμματος.
Στόχος του προγράμματος είναι η επιμόρφωση αποφοίτων σε σύγχρονα γνωστικά αντικείμενα που αφορούν τις Τεχνολογίες Πληροφορικής και Επικοινωνιών και τις εφαρμογές τους στη μελέτη του περιβάλλοντος σε όλες του τις εκφάνσεις (φυσικό, ανθρωπογενές, κοινωνικό). Η διεξαγωγή του γίνεται κατά κύριο λόγο με συμβατική (δια ζώσης) συμμετοχή των εκπαιδευομένων σε συναντήσεις (διαλέξεις και εργαστηριακές ασκήσεις), ενώ θα χρησιμοποιηθεί σε μικρό βαθμό και σύγχρονη εξ΄ αποστάσεως εκπαίδευση (σε ορισμένους κύκλους). Το πρόγραμμα είναι διάρκειας 150 ωρών.

Περισσότερες πληροφορίες στο: http://www.ru.aegean.gr/announcement/attachment/2322/Proskili_Ekpaidevomenon_PEGA_Geoinfo.pdf


Dynamick: 2000 icone flat: scarica subito il pacchetto gratuito

Un must-have per qualsiasi web designer

Finalmente una grandiosa raccolta di icone flat, completa di 2000 elementi che vanno a trattare una vastità di argomenti così da essere utili in ogni occasione.

Stilose al punto giusto, flat e pulite come vuole il gusto attuale. Questa raccolta di icone rappresenta la libreria che qualsiasi web designer dovrebbe avere sempre a portata di mano. Icone per rappresentare visivamente a colpo d’occhio il contenuto della pagina e per dare un tocco di stile e di colore al testo.

Squid.ink offre un pacchetto di 2.000 flat icons, disegnate singolarmente a mano, stilisticamente coerenti e pixel-perfect. Le icone sono state appositamente ideate avendo presente le tendenze attuali del design e risultano così perfette per creare un design unico e incisivo.

Caratteristiche

Il monotono del più che abusato icon font “font awesome” comincia a stancare e potrebbe andar stretto in design che necessitano punti di colore per ravvivare e risvegliare la fantasia del lettore. Ma il colore non è l’unico punto di forza di questo set di icone: i formati messi a disposizione forniscono versatilità di utilizzo. Oltre al classico formato png 32px o 64px, è disponibile l’svg, formato web compatibile vettoriale, che usato direttamente in una pagina, ci permette di adattare le dimensioni dell’icona a nostro piacimento. Inoltre sono presenti i formati psd e ai per la modifica dell’icona con Photoshop o Illustrator, così da rendere semplice cambiare i colori o gli stili di livello, spostare e ridimensionare ogni singolo elemento.

Le icone sono tante e gli argomenti trattati sono onnicomprensivi: Audio, Celebrazioni e vacanze, vestiti e scarpe, controllo e navigazione, dispositivi e rete, modifica file e cartelle, finanza, giochi e svago,  famiglia, ufficio, fotografia e video, social media, logo, user interface, tempo, web e browser.

40 Free Flat Icon Pack

Scaricare il pacchetto di icone

Squid.ink ha pensato di fornire un pacchetto gratuito con un set ridotto di 40 icone, così da invogliare gli utenti all’acquisto dell’intero pacchetto e comunque far capire loro la qualità del lavoro offerto.

Inoltre per ancora qualche giorno è disponibile un’offerta lancio a 45$ invece che 65$. Quindi se avete l’intenzione di fare l’acquisto, dovrete affrettarvi, mancano ancora pochi giorni allo scadere della promozione.

 

L'articolo 2000 icone flat: scarica subito il pacchetto gratuito sembra essere il primo su Dynamick.

Γεωπληροφοριακά Νέα: Νέα υπηρεσία γεωχωρικών πληροφοριών από τον Δήμο Θεσσαλονίκης

Ο Δήμος Θεσσαλονίκης στα πλαίσιο της αναβάθμισης των υπηρεσιών του σε ότι αφορά την διάχυση των γεωχωρικών του δεδομένων, αλλά και της συμμόρφωσης του με την Ευρωπαϊκη οδηγία INSPIRE, έχει δομήσει μία Υποδομή Γεωχωρικών Πληροφοριών (Υ.Γε.Π), μέσω της οποίας , οι πολίτες έχουν την δυνατότητα ελεύθερης πρόσβασης στα σύνολα γεωχωρικών δεδομένων και μεταδεδομένων που κατέχει. Η υλοποίηση της Υ.Γε.Π. εντάσσεται στην ευρύτερη πολιτική αναβάθμισης των ψηφιακών υπηρεσιών του Δήμου Θεσσαλονίκης. Βασικός στόχος είναι, πέρα από την επιταγή εναρμόνισης του Δήμου με την κοινοτική οδηγία INSPIRE, η υιοθέτηση αρχών ανοικτότητας και διαλειτουργικότητας στη διάθεση πληροφοριών. Για την πρόσβαση στη συγκεκριμένη πλατφόρμα επισκφτείται τον σύνδεσμο.


Γεωπληροφοριακά Νέα: Ανακοινώθηκε ο 2ος κύκλος των Σεμιναρίων GIS με πιστοποίηση

Περισσότερες πληροφορίες στο παρακάτω σύνδεσμο: http://eepurl.com/be9z65


geomaticblog.net: EMT Madrid, or Open Data antipatterns

Today, february 21st 2015, is the Open Data Day. And given that I’m far asay from my favourite Open Data nerds down at the Medialab Prado, I decided to work on giving the old ¿Cuánto Tarda Mi Autobús? website a facelift.

The story behind ¿Cuánto tarda mi autobús? is rather simple. A couple of years ago I got my first smartphone, and one of the things I wanted to do is check for the bus times in Madrid. Back then, EMT Madrid (the public company which runs the buses) was heavily promoting its new website in the Spanish GIS scene. The major problem was that the website for checking the times was made with Flash (actually, with ESRI Flex) and simply there is no way to use that with a smartphone.

So I reverse-engineered the protocol (if you call “reading a WSDL document” reverse engineering), did a bit of PHP plus Leaflet, and I was able to check the bus times with a web app.


 

Fast-forward to the present. EMT had released the API details under the banner of «Open Data EMT», I had a saturday to devote to the Open Data Day, and my little web app needed some love after two years of no updates at all.

But, oh boy, every time I try to develop anything with interfaces made by big subcontractors, I cannot stop cringing at the amount of WTF found around.

The antipatterns

Antipattern 1: «Open Data» which isn’t actual Open Data.

In the same way that Open Source software can only be Open Source if it meets the Open Source Definition, Open Data is only Open Data if it meets the Open Definition. Period. These definitions are evolved versions of the DFSG and Free Software Definition, curated with years of experience and discussions about what is open and what is not.

So, the Open Definition states:

2.1.8 Application to Any Purpose

The license must allow use, redistribution, modification, and compilation for any purpose. The license must not restrict anyone from making use of the work in a specific field of endeavor.

From «OpenData EMT»’s terms and conditions:

1. The re-user agent is explicitly prohibited from distorting the nature of the information, and is obliged to:
a. Not to manipulate nor falsify the information.
b. Ensure that any information displayed in your system is always up to date.
c. Not to use the information to undermine or damage EMT’s public image.
d. Not to use the information in sites that might lead to a relation with illegal acts or attempts to sabotage EMT or any other entity, organization or person.

So apparently I cannot:

  • Display historical information (because my data must be up-to-date).
  • Say that the system is a complete piece of steaming crap from a technological point of view.
  • Use the information in sites such as Facebook or Twitter, because those sites might be used for an attempted sabotage to «any entity or person». Who the fuck wrote this blanket clause, folks?

Please, don’t call it «Open Data».

I have to give praise to the EMT, though. The previous version of the agreement obliged the reuser to not disclose that he/she signed an open data agreement. At least they fixed that.

Antipattern 2: Your SOAP examples contain raw XML.

The whole point of SOAP was to abstract data access. And, still, every public SOAP interface I’ve ever seen includes examples with raw XML fragments that you’re supposed to build up.

If you cannot write code that access SOAP without writing XML, you’re doing it wrong.

Think about how WMS interfaces work nowadays: you just publish the WMS endpoint, and your GIS software takes care of the capabilities and the

Antipattern 3: Keep default fake values in your production code.

From the docs:

tempuri

Note «tempuri.org». A quick search will tell you that the system was designed using Visual Studio, and some lazy so-called software engineer didn’t bother to change the defaults.

Antipattern 4: Fuck up your coordinate systems

Note to non-spaniard readers: The city of Madrid is located roughly at latitude 40.38 north, longitude 3.71 west.

Now look at this example from the EMT docs about how bus coordinates are returned:

positionbus

Antipattern 5: Mix up your coordinate systems

Write things like “UTM” and “geodetic” in your documentation, but do not write which UTM strip you’re referring to (hint: it’s 30 north, and the SRS is EPSG:23030). Make some of your API methods to return coordinates in EPSG:23030 and some others to return coordinates in EPSG:4326.

And for extra fun, have your input coordinate fields accept both of those SRSs as strings with comma-defined decimal point, and then do this in the documentation:

coordinateint

Antipattern 6: Self-signed SSL certificates

Srsly?

sslcert

Antipattern 7: Wrap everything up in HTTP + JSON and call it “REST”

REST is a beautiful technology because it builds up pretty much on top of raw HTTP. Every object (“resource”) has its own URI (“universal resource identifier”), and the HTTP verbs are used semantically (GET actually gets information, POST modifies information, DELETE deletes a resource, and so on).

Also, HTTP status codes are used for the return status. An HTTP status code 200 means that the data is OK, a 404 means that the resource doesn’t exist, a 401 means that you are not authorized to get/post/delete the resource. Reusing the semantics of HTTP is way cool.

So, in a REST interface for bus stops, the stop number 1234 (a resource) would be located at its URI, e.g. http://whatever/stops/1234. It’s beautiful because the URI has a meaning, and the HTTP verb GET (which is the default when a web browser is fetching something) has a meaning. The server would answer with a “200 OK” and then the resource.

Low-level, it should look like:

GET /stops/1234 HTTP/1.1

-----

HTTP/1.1 200 OK
Content-Type: text/JSON

{
"stopId": 1234, 
"latitude": 40.3,
"longitude": -3.71,
"stopName": "Lorep Ipsum Street",
"lines": ["12", "34"]
}

Now compare the theoretical RESTful way to fetch one bus stop with the real-life mess:

POST /emt-proxy-server/last/bus/GetNodesLines.php HTTP/1.1
idClient=user&passKey=12345678-1234-1234-12345678&Nodes=1234

-----

HTTP/1.1 200 OK
Content-Type: text/JSON

{
"resultCode":0,
"resultDescription":"Resultado de la operacion Correcta",
"resultValues":{
  "node":1234,
  "name":"ROBERTO DOMINGO-AV.DONOSTIARRA",
  "lines":["21\/1"],
  "latitude":40.434861209797,
  "longitude":-3.6608600156554
  }
}

So, meaningless URI, POST request to fetch a resource, duplicated return status codes (for the HTTP layer and some other underlying layer).

Let me say this very, very clearly: In REST, you do not wrap a resource in a call to get that resource. Geez.

My takeaway

Readers will do good to keep in mind that I’m using my spare time in order to participate in the Open Data Day, for fun. The problem is that working with such an arquitecture is no fun at all. I can deal with these kind of enterprisey, Dilbertesque software stacks in a day-to-day basis, but only if I’m getting paid to endure the cringing and teeth-grinding.

I think it’s because the mind of an Open Source / Open Data nerd like me is difficult to understand by the classic propietary software people. I develop software just for the fun of doing so, just because I can, just because I like the feeling of empowerment of creating my own tools.

I write a lot of open source stuff. I fix wikipedia from time to time, I map stuff on OpenStreetMap if something’s wrong. I like to do it, and I empower other people to build upon my work.

Building upon good Open Source/Data doesn’t feel like standing on the shoulders of giants. It feels like standing on the soulders of a mountain of midgets… and if you’re lucky, you’ll be one of those midgets and someone will stand upon your shoulders.

For me, that involves a great deal of humility. When I watch the closed-source crowd talk about their latest product or software, they are congratulating themselves, but when I watch the open-source crowd, they’re constantly critizising themselves. And I can critizise them and they can critizise me and we all learn and that’s why they’re awesome.

</rant>


Archivado en: formatos, geodatos, opinión

TANTO: #GIMNow – cosa è avvenuto

Con questo post vogliamo fare il punto su quanto avvenuto dopo la chiusura del sondaggio sul ruolo del GIM che abbiamo promosso sull’onda della proposta di Sergio Farruggia, per avere un riscontro condiviso, con un panel di operatori del settore geo-ICT.

Iniziamo con il ringraziare quanti hanno partecipato, numerosi rispetto alle aspettative. Ci ha colpito sia il numero che la qualità dell’adesione alla proposta, anche questa non era scontata.

Altro motivo di riflessione è legato a coloro che hanno deciso di rispondere al questionario: molti degli operatori invitati hanno deciso di non esprimersi, mentre c’è stata, in proporzione, una maggiore adesione spontanea all’iniziativa, anche questo è secondo noi un fatto importante.

I dati

Abbiamo inviato per email poco meno di 100 inviti alla compilazione del questionario e ricevuto (grazie anche ad un po’ di comunicazione sul web) 64 risposte.
Quelle alla prima domanda – “Ritieni che il ruolo del GIM sia utile per la PA?” – sono così distribuite:

  • 4 “Per Niente”;
  • 8 “Abbastanza;
  • 52 “Molto”.

Più del 80% dei partecipanti ha espresso un feedback positivo.

grafico1

Le risposte alla domanda “Ritieni che il ruolo del GIM sia utile per le città/comunità? sono invece così distribuite:

  • 2 “Per Niente”;
  • 5 “Abbastanza;
  • 57 “Molto”.

Un feedback positivo più forte da cui emerge una valutazione migliore di questo ruolo nel contesto delle città/comunità: 2 persone che avevano valutato per niente utile il GIM per la Pubblica Amministrazione, lo trovano più efficace in un contesto più “dal basso”.

grafico2

Infine, circa 50 persone hanno manifestato la disponibilità a partecipare alla costruzione di questa campagna, lasciando il proprio indirizzo mail.

I luoghi di #GIMNow

Come già annunciato in precedenza è stata aperta una “mailing list/gruppo di discussione” per costruire insieme questa idea e renderla concreta, la mailing list sta prendendo vita ed abbiamo già iniziato alcune discussioni, ad esempio condividendo i RAW data delle risposte al questionario.

Il canale Twitter @biggimnow potrebbe rappresentare un’ulteriore strumento utile di discussione.

Per stimolare una analisi condivisa utilizziamo un unico documento, contenente le proposte emerse dal questionario su cui ragionare assieme.

Abbiamo “creato” uno spazio su http://big-gim.it in cui raccogliere e sistematizzare il frutto del confronto sul tema del GIM.

La redazione di TANTO.

L'articolo #GIMNow – cosa è avvenuto è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

TANTO: Il database topografico di Regione Piemonte in #opendata

Abbiamo ricevuto questa notizia da Regione Piemonte (che ringraziamo), e ci limitiamo semplicemente a rigirarla per darne diffusione: la “Base Dati Territoriale di Riferimento degli Enti - BDTRE” è stata pubblicata con  licenza Creative Commons 2.5 BY.

Sotto tutti i dettagli



Il database topografico di Regione Piemonte è OPEN!

Regione Piemonte promuove la costruzione di un insieme comune di dati geografici (BDTRE: Base Dati Territoriale di Riferimento degli Enti), integrati in una infrastruttura che ne permette la condivisione tra i vari soggetti che gestiscono il territorio.

Nucleo portante di tale infrastruttura è il database topografico regionale, realizzato secondo le Specifiche di contenuto dei database geotopografici (G.U. n. 48 del 27-2-2012, Suppl. ord. 37) e contenente gli elementi tipici della cartografia tecnica alla grande scala. I contenuti del database topografico sono resi disponibili in varie forme, dati e servizi, tra cui l’edizione annuale aggiornata della Base Cartografica di Riferimento della Regione Piemonte, che supera la CTR ( L.R. 1/2014 art 10).

BDTRE è Open!

Gli utenti del database topografico sono Enti locali, professionisti, enti universitari e di ricerca, imprese e i cittadini che necessitano di dati topografici per interagire con la Pubblica Amministrazione. Per consentire loro la piena fruizione, Regione Piemonte rende disponibile la BDTRE in modalità open attraverso il GeoPortale Piemonte, con licenza Creative Commons 2.5 BY: gli utilizzatori sono liberi di utilizzare per propria utilità, anche commerciale, i dati della BDTRE riconoscendone la paternità in modo esplicito.

Usiamo BDTRE!

Il data base topografico, l’allestimento raster derivato e i servizi aggiornati all’edizione 2015 sono facilmente raggiungibili dal GeoPortale Piemonte ( www.geoportale.piemonte.it) utilizzando “BDTRE 2015″ come chiave di ricerca nel catalogo.

Sono sempre disponibili, inoltre, i servizi relativi all’edizione 2014.



Come fare il download del dato grezzo

L'articolo Il database topografico di Regione Piemonte in #opendata è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

Geografitti - nicht nur Geografisches: Neues Projekt 2015: Geography Matters

Ich habe ein neues Projekt. Und ich mache das nicht allein (…aufgeregtes hibbeln…).

Alles weitere gibts direkt auf der nigelnagelneuen Seite http://www.geography-matters.de

Das ist noch eine Baustelle, aber es gibt schon etwas zu lesen. Zum Beispiel (m)ein Essay über das Verhältnis von Realität und Karten im digitalen Zeialter. Und ganz viel dazu, was das alles werden soll. Und meine Mitstreiterin sagt, wenn man in beiden Texten die ersten zwei Absätze überstanden hat, werde es sogar ganz interessant.

Was und ob hier etwas passiert, weiß ich noch nicht. Aber ich glaube die Geo-Themen wandern mittelfristig zum neuen Projekt und hier wird es langfristig ein wenig persönlicher. Anregungen, Kommentare und Kritik dann gerne bei Geography Matters.

 

INSPIRE by clouds: La réforme territoriale, une validation de la politique de partage des données

La réforme territoriale est inquiétante pour tous les acteurs territoriaux du l’information territorialisée. L’incertitude sur les futures organisations et les futures missions est complète sauf, peut-être, en Bourgogne-Franche-Comté. Et la plupart des acteurs se gardent bien de la prise de décision en situation d’incertitude. Quels leviers avons-nous pour faire bouger les lignes et défendre les […]

Geografitti - nicht nur Geografisches: Jahresrückblick 2014

Beste Entscheidung: Der Um- und Ausbau der Wohnung (wegen: viel schöner jetzt)
Schlechteste Entscheidung: Der Um- und Ausbau der Wohnung (wegen: viel ärmer jetzt)

Beste Anschaffung(en): Der Ilve Gasherd mit der runderneuerten Küche drumrum
Dämlichste Anschaffung: Loewe Airspeaker, der entschieden Widerstand leistet, bei dem Versuch, ihn in ein WLAN zu bringen. Vor allem wegen der bescheuerten Hinweise des Herstellers und aus diversen Foren, das Gerät funktioniere per Kabel viel besser. ICH HAB DAS BLÖDE DING ABER WEGEN DER WLAN-FUNKTION GEKAUFT UND DER HERSTELLER WIRBT AUCH DAMIT !!!!!!!!

Bestes Getränk: Neumarkter Lammsbräu Dinkel war meine diesjährige Bier-Entdeckung.
Ekelerregendstes Getränk: Ich mag einfach keinen Glühwein.

Bestes Rezept: Bestimmt irgendwas beim Lieblingsgriechen.
Schlimmstes Essen: Bestimmt irgendwas vom Thai-Imbiss.

Beste Musik: Natürlich wieder mal Tina Dico (“Old friends”) aber es gefiel auch First Aid Kit (“SilverLinings”) und Family of the Year (“Hero”)
Schlimmstes Gejaule: Natürlich dieses Asthmatiker-Hymne, irgendwas mit atemlos. Aber auch Revolverheld haben etwas genervt mit ihrem Energieverschwendungsaufruf

Eigene, schönste musikalische Wiederentdeckung: Dass der Klassiker “Don’t let me be misunderstood” von Nina Simone ist und von den Animals gecovert wurde.
Peinlichster musikalischer Faux-Pas: Ich hab glaub ich irgendwann nach einem WM-Spiel lauthauls Bourani mitgegröhlt. Nunja.

Beste Idee: Die tollen Designer-Fliesen für die neue Küche
Dämlichste Idee: Die tollen Designer-Fliesen für die neue Küche

Beste Lektüre: Ich habe wieder kein einziges Buch gelesen.
Wiederentdeckte Lektüre: Ich habe wieder kein einziges Buch gelesen.
Langweiligste Lektüre: Ich habe wieder kein einziges Buch gelesen.

Zugenommen oder abgenommen?
Es gibt wieder mehr von mir

Haare länger oder kürzer?
Immer noch bezopft. Aber nicht länger.

Kurzsichtiger oder weitsichtiger?
blinder

Mehr ausgegeben oder weniger?
Viel mehr als gedacht, Wie das so ist bei Umbauten im Altbau…

Der hirnrissigste Plan?
Nee, wieder nicht. Ich bin ja sowas von vernünftig.

Die gefährlichste Unternehmung?
Ach, ich fand nichts von dem gefährlich, was ich gemacht hab. Sonst hätte ich es ja nicht gemacht.

Die teuerste Anschaffung: Als Einzelstück das neue Wohnzimmerfenster. Aber der Umbau insgesamt schlägt als zweitteuerste Anschaffung des Lebens zu Buche – direkt nach dem Wohnungskauf selbst.

Der ergreifendste Film?
“Im Labyrinth des Schweigens” und “Das Schicksal ist ein mieser Verräter.”
Verweise für beide Filme auf Kafka: “Im Kino gewesen. Geweint.”

Die beste CD?
Unterm Strich dann “Lights out” von Ingrid Michaelson

Das schönste Konzert?
Wäre mit Sicherheit Ingrid Michaelson im Hamburger Mojo-Club geworden. Ist aber ausgefallen. So ist es die “Hair”-Inszenierung im Bremer Theater.

Die meiste Zeit verbracht mit?
der Frau an meiner Seite.

Die schönste Zeit verbracht mit?
der Frau an meiner Seite.

Vorherrschendes Gefühl 2014?
Satt

2014 zum ersten Mal getan?
Schöffe gewesen, an Urteil mitgearbeitet

2014 nach langer Zeit wieder getan?
Musik-CDs gebrannt und mit dem Büro umgezogen

Drei Dinge, auf die ich gut hätte verzichten können:
Die Keller-Überschwemmung in der Verlängerung des WM-Endspiels
Der Kurzaufenthalt des Juniors im ägyptischen Gefängnis
Der Rettungswagen inklusive Notarzteinsatz. Ich konnte nur mit ganz vielen Unterschriften verhindern, abtransportiert zu werden.

Die wichtigste Sache, von der ich jemanden überzeugen wollte?
Dass so ein Gasherd quasi lebensnotwendig ist.

Das schönste Geschenk, das ich jemandem gemacht habe? Kleine gepunktete Auflaufformen

Das schönste Geschenk, das mir jemand gemacht hat? Das gibts immer dann, wenn die Frau an meiner Seite irgendwo mit mir hingeht, wo sie sonst nie hingegangen wäre und sich dann sehr dafür interessiert.

Song des Jahres: “Someone you love” – Tina Dico

Fernsehserie des Jahres: Nach dem Ende von “Breaking Bad” erst mal ins Loch gefallen. Am ehesten noch die 2. Staffel von “Die Brücke – Transit in den Tod”

Kleidungsstück oder Accessoire des Jahres: Mein im Grunde neuwertiger Lieblingspullver, den der Schneider unverständlicherweise nicht mehr flicken wollte, wegen “lohnt nicht mehr”.

Tier des Jahres: Giraffe. Dass die wirklich große Köpfe haben, merkt man auch erst, wenn der durchs Autofenster kommt.

Wort des Jahres: Aufkantung

Satz des Jahres: “Da ist doch noch ein Schornsteinabzug frei!” (Schornsteinfeger löst Planungsproblem)

Peinlich (andere) 2014: Ich muss feststellen, dass ich mich nur sehr wenig in Fremdschämsituationen begebe. Und jetzt Markus Lanz zu nennen ist ja irgendwie billig.

Peinlich (selbst) 2014: Sag ich nicht. Ist mir peinlich.

Angst 2014: Immer noch rein finanzieller Natur. Schlimmer geworden.

Wutanfall 2014: Siehe dämlichste Anschaffung. Könnte mich schon wieder AUFREGEN!!!!

Persönlicher Höhepunkt des Jahres:
Ich weiß nicht mehr genau, was es war, aber ich hatte recht.

Persönlicher Tiefpunkt des Jahres:
Diskussion mit Rettungssanitätern, für die mein baldiger Tod auf der Toilette scheinbar ausgemachte Sache war

Siehe auch: 2013, 2012, 2011, 2010, 2009, 2008, 2007, 2006

GIS Ελλάδα: Παρουσίασεις στο HellasGI συνέδριο στην Αθήνα 11/12 Δεκεμβρίου 2014


Workshop - Πέμπτη 11 Δεκεμβρίου 2014 - 11.00



Συνέδριο Β' - Παρουσίαση - Πέμπτη 11 Δεκεμβρίου 2014 - 14.00


Επίτευχη της διάχυσης γεωγραφικών πληροφοριών στο Δήμο Bretagne Romantique Γαλλίας




INSPIRE by clouds: La fin de la saisie manuelle des métadonnées?

Le principal enseignement de la journée INSPIRE du CNIG a été l’importance première de l’animation. Les trois intervenants du matin, DREAL Poitou-Charentes, Lorient Agglomération et PIGMA, ont tous mis largement en avant l’importance de celle-ci pour la réussite du partage des données. Or, l’atelier « Accompagnement » de l’après-midi a tout aussi largement mis en évidence l’inefficacité […]

GIS Ελλάδα: lizmap στα ελληνικά για το συνέδριο HellasGI

Μερικές πληροφορίες σε σχέση με την εφαρμογή lizmap και την ελληνική μετάφραση.

Από το twitter θα βρείτε πληροφορίες
https://twitter.com/hashtag/lizmap


https://github.com/3liz/lizmap-web-client/releases/tag/2.10.0

Μια εφαρμογή στο διαδίκτυο lizmap για τη Καβάλα.
http://geotest.bretagneromantique.fr/lizmap-web-client/lizmap/www/index.php/view/map/?repository=city&project=myproject

Η τεκμηρίωση για το lizmap
http://docs.3liz.com/en/introduction.html 

Τα λέμε στο συνέδριο στην Αθήνα...

INSPIRE by clouds: Retour sur la journée du CNIG du 18.11.14

Ce qui suit est un compte-rendu essentiellement subjectif des moments marquants de la journée du 18.11.14 du CNIG consacrée à la mise en œuvre de la directive INSPIRE. Introduction de Pascal Lory, IGN, au titre de l’appui au secrétariat permanent : il y a 400 participants dans les groupes CNIG. Le point de vue d’Ulla Krongborg […]

GIS Ελλάδα: Σε επίσκεψη στην Αθήνα - HellasGIs

Θα είμαι παρόν στο 8ο Πανελλήνιο Συνέδριό - HellasGIs στην Αθήνα τις 11 Δεκεμβρίος.
Το πρωί θα είμαι ένα γεμάτο πρόγραμμα για μένα αφού θα είμαι στα workshops στις 11.00 με 13.00 για το θέμα "Διάχυση των γεωγραφικών δεδομένων στο διαδίκτυο από QGIS σε Lizmap".

Στο καπάκι, θα συνεχίσω με τη παρουσίαση μου που έχει μεγάλη σχέση με το προηγουμένο θέμα ... με τίτλο "ΔΙΑΔΙΚΑΣΙΕΣ ΓΙΑ ΤΗΝ ΕΠΙΤΕΥΞΗ ΤΗΣ ΔΙΑΧΥΣΗΣ ΔΗΜΌΣΙΩΝ ΓΕΩΓΡΑΦΙΚΩΝΔΕΔΌΜΕΝΩΝ ΣΤΌ ΔΗΜΌ BRETAGNE ROMANTIQUE ΓΑΛΛΙΑΣ".

Θα είμαι διακοπές αλλά ευκαιρία είναι να περάσω και να καποιά λόγια για την εμπειρία μου στο δήμο που εργάζομαι...

Σας βάζω και τη περίληψη της παρουσίασης για περισσότερες λεπτομέρειες στο παρακάτω μέρος.

Περίληψη:
Ο δήμος Bretagne romantique στη Γαλλία θέλει να αναπτύξει τη σωστή λειτουργία των υπηρεσιών της και επίσης να διευκολύνει την πραγματοποίηση των έργων για το προσωπικό  που διασφαλίζει το συντονισμό αυτών. Αυτό εκφράζεται μέσω της αποστολής του δήμου για την παρακολούθηση των 27 κοινοτήτων και τη διάθεση των γεωγραφικών δεδομένων που αφορούν ειδικά το κτηματολόγιο, τα πολεοδομικά σχέδια και τα δεδομένα των δικτύων διανομής. Έτσι εξηγείται η πραγματοποίηση του Δημοτικού Γεωγραφικού Συστήματος Πληροφοριών (ΓΣΠ) το 2009. Αρχικά δημιουργήθηκε για να απαντήσει στις ανάγκες χρήσης και αναζήτησης του κτηματολογίου και της ορθοφωτογραφίας.

Μετά από μερικά χρόνια, διαπιστώθηκε ότι οι ανάγκες των χρηστών έχουν αλλάξει και το ΓΣΠ δεν ήταν προσαρμοσμένο πλέον στις προσδοκίες των υπαλλήλων και των συνεργατών. Γι' αυτό το 2013,  η τοπική αυτοδιοίκηση δεσμεύεται σ'ένα συγκεκριμένο έργο για να εξασφαλισθεί η συνέχιση της χρήσης των γεωγραφικών δεδομένων και της ανάπτυξης  των εφαρμογών του.

Το τμήμα του Συστήματος Πληροφοριών ξεκίνησε αυτό το έργο με μια σταδιακή αύξηση των δεδομένων στο ΓΣΠ. Πρόκειται για τη δημιουργία νέων χωρικών δεδομένων σε σχέση με τα θέματα της πολεοδομίας και του περιβάλλοντος. Παράλληλα, το έργο έχει ως στόχο μια μεγαλύτερη διάχυση των εδαφικών δεδομένων στο διαδίκτυο με σκοπό τη σταδιακή απελευθέρωση αυτών, με αποτέλεσμα να χρησιμοποιούνται από το κοινό (και όχι μόνο από τους υπαλλήλους των δημόσιων υπηρεσιών). 

Αρχικά μέσω της παρουσίασης θα γίνει η περιγραφή των θεμάτων που αντιμετώπισε η τοπική αυτοδιοίκηση πριν την πραγματοποίηση του έργου.

Έπειτα θα προσεγγίσουμε τις τεχνικές λύσεις και τα θέματα σχετικά με την οργάνωση του έργου. Εξίσου η φάση ευαισθητοποίησης των υπηρεσιών του δήμου και της διεύθυνσης είναι ιδιαίτερα σημαντικές για τη σωστή υλοποίηση του.

Ένα κεφάλαιο θα αναφέρει τις εφαρμογές που λειτουργούν σύμφωνα με τα πρότυπα της δια λειτουργικότητας των συστημάτων. Αυτές βασίζονται σε ελεύθερα λογισμικά για μια μεγαλύτερη ευελιξία που επιτρέπει την εύκολη αναβάθμισή τους.  Πρόκειται για τα λογισμικά Desktop QGIS 2.Χ που είναι εγκατεστημένα στους υπολογιστές των τμημάτων του δήμου και στοχεύουν στη δημιουργία νέων χωρικών δεδομένων που θα ενσωματωθούν στη συνέχεια στο ΓΣΠ. Ανάλογα τα ευαίσθητα δεδομένα, όπως το κτηματολόγιο, βρίσκονται σε μια βάση δεδομένων και σε μια ξεχωριστή εφαρμογή WebGIS  με κωδικοποιημένη πρόσβαση για τους υπάλληλους του δήμου και των κοινοτήτων. Το επόμενο θέμα θα αφορά τη δημόσια διάχυση των γεωγραφικών δεδομένων με ελεύθερα λογισμικά WebGIS Lizmap εξασφαλίζοντας μια πλήρη συμπληρωματικότητα μεταξύ του GIS Desktop QGIS και του WebGIS Client Lizmap. Επισημαίνεται και η διαθεσιμότητα των λογισμικών στην ελληνική γλώσσα για μια καλύτερη κατανόηση από το κοινό.

 Τέλος, θα παρουσιαστούν οι προοπτικές ανάπτυξης του έργου αναλυτικά στοχεύοντας στους προβληματισμούς που προκύπτουν και θα επισημανθούν οι προβλέψεις του κάθε τμήματος για τη βελτίωση των χρήσεων των γεωγραφικών δεδομένων στο δήμο Bretagne romantique.


Για το πλήρης πρόγραμμα, δείτε το αρχείο από την επίσημη ιστοσελίδα του Συνεδρίου http://www.hellasgi.gr/

Cartesia.org: Simposio: Geomatics in Latin American Archaeology

Sesión que llevamos a la 43 Conferencia Anual Internacional Computer Applications and Quantitative Methods in Archaeology (CAA Siena 2015) que se celebrará entre el 30 Marzo y el 3 Abril 2015 en Siena (Italia) con el título: “Geomatic approaches in Latin American Archaeology: the state-of-the-art in Spatial Archaeology”.

La propuesta completa se halla en : http://caaconference.org/program/sessions/4f/

Maximiano, Alfredo M. Universidad de Cantabria. IIIPC. España, maximianocastillejo@gmail.com
Magnin, Lucía A. Universidad Nacional de La Plata. CONICET Argentina, lumagnin@yahoo.com.ar
De Feo, María Eugenia. Universidad Nacional de La Plata. CONICET Argentina, eugeniadefeo@yahoo.com.ar
Figuerero Torres, María José. Universidad de Buenos Aires. Argentina, mjofiguerero@yahoo.com.ar

Contacto: geomaticsla.caa.2015@gmail.com
20 Nov 2014: concluye llamado de trabajos
Presentación de resúmenes: http://caaconference.org/program/

Terra Observer: Daily Overview

Bo Ziemi widzianej z góry nigdy za wiele.

Terra Observer: Webcarto - lista serwisów WMS

  • Ładne,
  • aktualne,
  • użyteczne,
  • i dobre, bo polskie (choć po angielsku).
webcarto - baza usług sieciowych wzbogacona o dodatkowe narzędzia takie jak czytelna interpretacja zapytania GetCapabilities czy monitoring działania serwera mapowego. Krótko mówiąc: warto dodać do zakładek :)




年会費無料のETCカードってあるの?: レンタカーとカーシェアは運転する時間や用途によります

たいていの場合、レンタカーとはお金を払って車を一日単位で借りられるシステムです。

そのため主な利用者は車を持っていない人で、旅行やドライブなど長時間車を使いたいという人がレンタカーを利用します。

 

そしてカーシェアリングもお金を払って車を借りるという点ではレンタカーと一緒です。

しかし何人かの人と一緒に一台の車を借りるというシステムで、その分一人の人が車を使える時間はレンタカーに比べると非常に短いのが特徴です。

 

また会員制という形をとっているカーシェアリングが主で、基本料金を払うものもあれば、そうでないものもあります。

また10分から15分単位での貸し出しを行っているところが多く、一回当たり数百円での利用が可能なものもあります。

 

先にも述べたように、旅行やドライブなどで長時間車を使用したいというケースではレンタカーを利用するほうがよいでしょう。

しかしちょっとした買い物や家族の送り迎えなど、それほど時間を必要としない用事のために車を運転したいというのであれば、カーシェアリングがお得です。

 

このようにレンタカーは車が一日必要であるという旅行などの大きなイベント時に利用でき、カーシェアリングはどちらかというとちょっとした用事を済ませるために車が必要だという人向けのシステムです。

 

いずれにせよ高い車の維持費を払って車を所有するのではなく、必要なときにだけ車を使いたいという人にとってレンタカー、そしてカーシェアリングは非常に便利です。

neogeo: Sécurité des Systèmes d’Information

Le moment paraît bien choisi. Depuis mercredi, la découverte d’une vulnérabilité béante dans « bash », l’interpréteur de commande le plus répandu dans le monde Linux, et aussi utilisé par OS X, vulnérabilité relativement facile à exploiter même si elle est un peu plus complexe à expliquer, illustre une fois de plus, après HeartBleed en mars, que nos systèmes informatiques sont faillibles, quelque puisse être la méticulosité des développeurs et testeurs. Ils sont faillibles car ils sont complexes et mobilisent de nombreux sous-systèmes. Ils sont faillibles car de nombreuses personnes vont s’employer à y percer des trous.
Forts de ce constat, effectué en conjonction de l’épisode HeartBleed et de vilaines attaques DDOS sur des infrastructures amies, nous avons entrepris de doter Neogeo Technologies d’une compétence, car il en faut, en sécurité des systèmes d’information. C’est en effet un métier, doté d’un savoir-faire, associé à une expertise. C’est pourquoi nous avons recruté un expert en sécurité, Wannes Rombouts, jeune et talentueux hacker, à peine sorti de l’Epitech mais déjà découvreur et patcheur de nombreuses vulnérabilités, notamment sur le noyau Linux.
La sécurité informatique est étroitement associée à la notion de risque. Est-ce que mon installation risque de se faire attaquer ? A quel type d’attaque ? Y résistera-t-elle ? S’en remettra-t-elle ? Comme pour les risques naturels, cela se modélise en termes d’aléas (le truc qui peut arriver : attaque DDOS, exploitation de vulnérabilité, intrusion…) et d’enjeux (que se passe-t-il si le système est endommagé ? S’il y a un vol de données, de comptes utilisateur ?). On retrouve alors l’équation risque = aléa x enjeu, avec les notions connexes de vulnérabilité, de résistance et de résilience (capacité à se remettre d’une attaque).
Pour chacun de ces aspects nous proposons ainsi désormais des prestations, standardisées ou sur-mesure que nous pouvons ranger dans trois catégories complémentaires :

Information

  • Newsletter Neogeo Sécurité pour vous tenir au courant de l’actualité « sécurité », et relayer de manière didactique (évaluation des risques) les principales nouvelles vulnérabilités découvertes. Inscription libre depuis ce formulaire.
  • Liste de diffusion restreinte Neogeo Sécurité. Pour recevoir une veille personnalisée en fonction de votre infrastructure et de vos besoins. Accès sur abonnement payant (100 € / an).
  • Organisation de séminaires et de sessions de sensibilisation des personnels techniques et moins techniques aux menaces sur les systèmes informatiques et aux bonnes pratiques pour s’en prémunir.

Investigation

  • Audits applicatifs et tests d’intrusion (boite noire/grise/blanche) :
  • Audit de code source : examen du code pour découvrir des vulnérabilités à de mauvaises pratiques de programmation ou des erreurs de logique.
  • Audit de configuration : vérification de la mise en œuvre de pratiques de sécurité conformes à l’état de l’art sur les dispositifs matériels et logiciels et leurs diverses configurations.
  • Audit d’architecture : prestation plus complète, elle consiste, comme l’audit de configuration, en la vérification de la conformité des pratiques de sécurité mais aussi des choix technologiques et organisationnels qui ont présidé à l’élaboration du SI.

Intégration

  • Intervention amont lors de la conception et du développement d’applications pour identifier et corriger les problèmes de sécurité le plus tôt possible et sensibiliser les développeurs à ces notions.
  • Sécurisation avancée et personnalisée de votre SI.
  • Formations spécifiques

 

Ces diverses prestations s’adressent évidemment à toute organisation, publique ou privée, souhaitant renforcer sa sécurité informatique ou s’assurer de sa qualité. Forts de nos compétences en SIG, nous développerons également une veille particulière sur ces environnements, et notamment les plateformes SIG en ligne, afin que, si les flux INSPIRE et Opendata se croisent et s’entremêlent, ils ne soient pas des vecteurs de vulnérabilité.

Pour toute question complémentaire, merci de vous adresser à security[arobase]neogeo-online.net.