Planet OSGeo feeds

Subscribe to Planet OSGeo feeds feed
Planet OSGeo -
Updated: 2 hours 39 min ago

From GIS to Remote Sensing: Semi-Automatic Classification Plugin version 6 officially released

Mon, 01/22/2018 - 00:24
I am glad to announce that the Semi-Automatic Classification Plugin (SCP) version 6 (codename Greenbelt) has been released.
This is the result of a long work of development related to my PhD research. I am really thankful to all the supporters and users of SCP that have motivated me to do my best.

Please note that SCP 6 is compatible with QGIS 3 only; therefore you need to install the QGIS development version until QGIS 3 is officially released. Please read this previous post for a guide about how to install QGIS 3 in Windows OS.
You can install SCP from the plugin installer in QGIS.

In the next few days I'm going to publish the updated user manual and the first video tutorial.
Please consider reporting any bugs or issues that you may encounter.

From GIS to Remote Sensing: How to install QGIS 3 using OSGeo4W in Windows OS

Sun, 01/21/2018 - 16:07
The Semi-Automatic Classification Plugin (SCP) version 6 (codename Greenbelt) will be released very soon.
This new version is compatible with QGIS 3 only; therefore you need to install the QGIS development version until QGIS 3 is officially released.

This post is a brief guide about how to install QGIS 3 in Windows OS using the OSGeo4W installer.

Free and Open Source GIS Ramblings: Creating reports in QGIS3

Sun, 01/21/2018 - 10:00

QGIS 3 has a new feature: reports! In short, reports are the good old Altas feature on steroids.

Let’s have a look at an example project:

To start a report, go to Project | New report. The report window is quite similar to what we’ve come to expect from Print Composer (now called Layouts). The most striking difference is the report panel at the left side of the screen.

When a new report is created, the center of the report window is empty. To get started, we need to select the report entry in the panel on the left. By selecting the report entry, we get access to the Include report header and Include report footer checkboxes. For example, pressing the Edit button next to the Include report header option makes it possible to design the front page (or pages) of the report:

Similarly, pressing Edit next to the Include report footer option enables us to design the final pages of our report.

Now for the content! We can populate our report with content by clicking on the plus button to add a report section or a “field group”. A field group is basically an Atlas. For example, here I’ve added a field group that creates one page for each country in the Natural Earth countries layer that I have loaded in my project:

Note that in the right panel you can see that the Controlled by report option is activated for the map item. (This is equivalent to a basic Atlas setup in QGIS 2.x.)

With this setup, we are ready to export our report. Report | Export Report as PDF creates a 257 page document:

As configured, the pages are ordered by country name. This way, for example, Australia ends up on page 17.

Of course, it’s possible to add more details to the individual pages. In this example, I’ve added an overview map in Robinson projection (to illustrate again that it is now possible to mix different CRS on a map).

Happy QGIS mapping!

Just van den Broecke: Emit #1 – Into Spatiotemporal

Sat, 01/20/2018 - 18:02

Smart Emission Googled for Photos

One of my new year’s resolutions for 2018 was to “blog more”. Not being very active on the well-known social media: a bit tired of Twitter, never really into Facebook, bit of LinkedIn.  OSGeo mailing lists, GitHub and Gitter is where you can find me most (thanks Jody, for reminding!). And I read many blogs, especially on my Nexus 10 tablet and Fairphone 2 via the awesome Feedly App. If you have not heard of Feedly (or any other blog-feed collectors), stop here and check out Feedly! Most blogs (like this one) provide an RSS/Atom-feed. Via Feedly you can search/add RSS-feeds and thus create your own “reading table”. My favorite feeds are related to Open Source Geospatial, Python and IoT, like:

Feedly shown in web browser

Enough sidestepping, my goal is to share tech around the Open Source Smart Emission Platform (SE Platform) in a series of posts, dubbed  ‘Emits’. This is Emit #1. Since 2014 I have been working on several projects, often through Geonovum, and recently via the European Union Joint Research Centre (JRC), that deal with the acquisition, management, web-api-unlocking and visualization of environmental sensor-data, mainly for Air Quality (AQ).

Smart Emission Googled

What made these projects exciting for me is that they brought together many aspects and technologies (read: Open Source projects and OSGeo software) I had been working on through the years. Also, it was the first time I got back into Environmental Chemistry, for which I hold a master’s degree from the University of Amsterdam, co-authoring some publications, yes, many many years ago.

So what is the Smart Emission Platform and what makes it exciting and relevant? In a nutshell (read the tech doc here): The goal of the SE Platform is to facilitate the acquisition (harvesting)  of sensor-data from a multitude of sensor devices and make this data available via standardized formats and web-APIs (mainly: OGC Standards) and Viewers. The SE Platform originates, what is now called the award-winningSmart Emission Nijmegen project in 2015-2017. Quoting from the paper “Filling the feedback gap of place-related externalities in smart cities” :

“…we present the set-up of the pilot experiment in project “Smart Emission”, constructing an experimental citizen-sensor-network in the city of Nijmegen. This project, as part of research program ‘Maps 4 Society,’ is one of the currently running Smart City projects in the Netherlands. A number of social, technical and governmental innovations are put together in this project: (1) innovative sensing method: new, low-cost sensors are being designed and built in the project and tested in practice, using small sensing-modules that measure air quality indicators, amongst others NO2, CO2, ozone, temperature and noise load. (2) big data: the measured data forms a refined data-flow from sensing points at places where people live and work: thus forming a ‘big picture’ to build a real-time, in-depth understanding of the local distribution of urban air quality (3)empowering citizens by making visible the ‘externality’ of urban air quality and feeding this into a bottom-up planning process: the community in the target area get the co-decision-making control over where the sensors are placed, co-interpret the mapped feedback data, discuss and collectively explore possible options for improvement (supported by a Maptable instrument) to get a fair and ‘better’ distribution of air pollution in the city, balanced against other spatial qualities. ….”

So from the outset the SE Platform is geared towards connecting citizen-owned sensor devices. Many similar programs and initiatives are currently evolving, often under the flag of Citizen Science and Smart Cities. Within the Netherlands, where the SE Nijmegen project originated, the Dutch National Institute for Public Health and the Environment (RIVM) was an active project partner, and still stimulates citizens measuring Air Quality via a project and portal: “Together Measuring Air Quality”. In the context of discussions on Air Quality, climate change and lowering budgets for governmental environmental institutions, citizen-participation becomes more and more relevant. A whole series of blogs could be devoted to social and political aspects of Citizen Science, but I will stick to tech-stuff here.

What made working on the SE Nijmegen project exciting and challenging, is that I was given time and opportunity by the project partners (see pic) to not just build a one-time project-specific piece of software, but a reusable set of Open Source components: the Smart Emission Platform (sources on GitHub).

Having had some earlier experience within the Geonovum SOSPilot project (2014-2015), investigating among others the OGC Sensor Observation Service to unlock RIVM AQ data (LML), I was aware of the challenges dealing with what can be called Spatiotemporal (Big) Data.


The figure below shows The Big Picture of the SE Platform. Red arrows denote the flow of data: originating from sensor devices, going through Data Management (ETL), unlocked via various web-APIs, and finally “consumed” in client-apps and viewers.


There are many aspects of the SE Platform that can be expanded. These are for upcoming Emits. For now a summary of some of the challenges and applied technologies, to be detailed later:

  • raw data from sensors: requires refinement: validation/calibration/aggregation
  • dealing with Big Data that is both spatial (location-based) and temporal (time-based)
  • applying an Artificial Neural Network (ANN) for sensor-data calibration
  • databases for Spatiotemporal data: PostGIS and InfluxDB and TICK Stack
  • applying the Stetl framework for all data management (ETL)
  • metadata for sensors and sensor networks, always a tough and often avoided subject
  • connecting the Open Hardware EU JRC AirSensEUR AQ sensor-box to the SE Platform
  • using OGC WMS (with Dimensions for Time) and WFS for viewing and downloading sensor data
  • is OGC Sensor Observation Service (SOS) and SWE still viable?
  • how powerful is the OGC SensorThings API (STA) standard?
  • deployment with Docker and Docker Compose
  • Docker and host systems monitoring: Prometheus + Grafana
  • OGC Services Monitoring with GeoHealthCheck
  • Visualizations: custom viewers with Heron/Leaflet/OpenLayers, Grafana dashboards
  • from development to test and production: Vagrant+VirtualBox, Ubuntu, Docker
  • using component-subsets of the platform for small deployments

Monitoring SE Docker Containers: Prometheus+cAdvisor+Grafana

A lot of stuff to uncover, hopefully got your interest if you have read all the way to here. Will try to treat one aspect/technology in each subsequent Emit-blog post. And off course the entire SE platform is Open Source (GNU GPL), so you are free to download and experiment, and maybe even would like to contribute.


Free and Open Source GIS Ramblings: Freedom of projection in QGIS3

Sat, 01/20/2018 - 15:06

If you have already designed a few maps in QGIS, you are probably aware of a long-standing limitation: Print Composer maps were limited to the project’s coordinate reference system (CRS). It was not possible to have maps with different CRS in a composition.

Note how I’ve been using the past tense? 

Rejoice! QGIS 3 gets rid of this limitation. Print Composer has been replaced by the new Layout dialog which – while very similar at first sight – offers numerous improvements. But today, we’ll focus on projection handling.

For example, this is a simple project using WGS84 as its project CRS:

In the Layouts dialog, each map item now has a CRS property. For example, the overview map is set to World_Robinson while the main map is set to ETRS-LAEA:

As you can see, the red overview frame in the upper left corner is curved to correctly represent the extent of the main map.

Of course, CRS control is not limited to maps. We also have full freedom to add map grids in yet another CRS:

This opens up a whole new level of map design possibilities.

Bonus fact: Another great improvement related to projections in QGIS3 is that Processing tools are now aware of layers with different CRS and will actively reproject layers. This makes it possible, for example, to intersect two layers with different CRS without any intermediate manual reprojection steps.

Happy QGIS mapping!

Paul Ramsey: Changing the Direction of Government IT

Fri, 01/19/2018 - 17:00

I love that the UK government review of IT outsourcing deals has been nicknamed the “Ocean Liner report”, in reference to the amount of time it takes to change the direction of a large vessel.

The UK is hardly alone in having dug a deep hole of contractual obligation and learned helplessness, but they were among the first to publicly acknowledge their problem and start work on fixing it. So the rest of us watch with great interest, and try to formulate our own plans.

This afternoon I was invited to talk about technology directions to an audience of technical architects in the BC government. It was a great group, and they seemed raring to go, by and large.

I titled my talk “Let’s Get Small” in homage to my favourite comedian, Steve Martin.

Our collective IT ocean liners will be slow to change course, but step one is turning the wheel.

Fernando Quadro: Testando softwares para Big Data Spatial – Parte 5

Fri, 01/19/2018 - 11:30

Este é o último post desta série intitulado “Testando softwares para Big Data Spatial”. Para concluir este artigo, vamos fala um pouco sobre a disponibilização das informações através de uma aplicação WebMap, que foi desenvolvida utilizando o Leaflet, mas poderia ter sido utilizada qualquer outra biblioteca para desenvolvimento de mapas na Web, como o OpenLayers, por exemplo.

1. Web Mapping com Leaflet

Este visualizador pode desenhar o mapa em dois estilos, desenhando um Heatmap (mapa de calor) ou desenhando uma camada temática. Ele faz todas as observações ou medidas de uma data única, e até mesmo entre todas as datas disponíveis (Clique na imagem para ver o vídeo).

Além disso, podemos verificar o desempenho com este visualizador, ele mistura o filtro espacial e temporal em uma consulta exclusiva.

A opção mais fácil, e talvez ideal, teria sido a aplicação do cliente executando solicitações WMS GetMap, mas vou executar solicitações ao GeoServer para buscar as geometrias para desenhá-las no cliente. Poderíamos usar os pedidos WFS GetFeature com os limites atuais do mapa (Ele gera um filtro BBOX espacial) e um filtro propertyIsEqual de uma data específica. Mas não devemos esquecer que estamos gerenciando grandes stores de dados que podem criar respostas GML ou JSON com grandes tamanhos e milhares e milhares de registros.

Para evitar esse problema, foi desenvolvido um par de processos WPS, chamado “geowave: PackageFeatureLayer” e “geowave:PackageFeatureCollection”, que retornam a resposta em um fluxo binário compactado. Você poderia usar outra lógica de empacotamento, por exemplo, retornando uma imagem especial onde pixels codificam geometrias e atributos de recursos. Tudo é para minimizar o tamanho da informação e acelerar a digestão dela na aplicação cliente.

Os parâmetros do WPS são: primeiro, o nome da camada no catálogo GeoServer atual (A “SimpleFeatureCollection” para o processo geowave:PackageFeatureCollection”), BBOX e um filtro CQL opcional (neste caso, estou enviando algo semelhante ao “datetime_begin = 2017-06 -01 12:00:00”).

Não vou explicar o código em detalhes, deixa o escopo deste guia. Se você quiser, você pode estudá-lo no link do github no final do artigo.

O aplicativo cliente executa um WebWorker executando uma solicitação WPS para nossa instância do GeoServer. O pedido executa o processo “geowave:PackageFeatureLayer” para minimizar o tamanho da resposta. Em seguida, o WebWorker descompacta o fluxo binário, analisa-o para criar objetos javascript com pontos e atributos e, finalmente, devolvê-los ao segmento principal do navegador para desenhar. O aplicativo cliente processa esses objetos usando a biblioteca Heatmap.js ou desenhando em um Canvas HTML5 para criar uma camada temática. Para este segundo estilo, o aplicativo cria algumas texturas on-the-fly dos ícones coloridos para usar ao desenhar os pontos. Este truque permite que mapas mostrem milhares e milhares de pontos de forma bastante rápida.

Se nosso aplicativo cliente exigir desenhar milhões de pontos, podemos mergulhar no WebGL e na ótima biblioteca do WebGL Heatmap ou demonstrações fantásticas de como construir um mapa com WebGL.

O código-fonte do módulo WPS e o aplicativo cliente estão disponíveis aqui. Espero que tenha gostado do artigo, e tenha consigo entender um pouco de como utilizar grandes volumes de dados (Big Data) com inteligência geográfica (GIS).

Este artigo e suas demais partes (1, 2, 3, 4) é uma tradução livre do artigo originalmente escrito por Alvaro Huarte no seu perfil do LinkedIn.

gvSIG Team: gvSIG como herramienta de innovación educativa para la mejora de los procesos de enseñanza

Thu, 01/18/2018 - 18:53

El uso de gvSIG como herramienta educativa no es una novedad y de hecho hay experiencias exitosas como el conocido proyecto ‘gvSIG Batoví’ en Uruguay. Sin embargo todavía queda mucho trabajo por hacer para normalizar el uso en las aulas de los Sistemas de Información Geográfica. Y, en este punto, quiero resaltar la importancia de utilizar software libre y no iniciar, desde instituciones educativas, la dependencia tecnológica de los estudiantes desde edades tempranas. Esto último bien lo saben las transnacionales de software privativo que en el mundo de la Geomática no dudan en promover iniciativas que pongan en marcha esa dependencia.

Por eso mismo es importante divulgar trabajos como el realizado por Gisela Boixadera-Duran, y denominado ‘Propuesta de innovación para la Unidad Didáctica de Ecología y Ecosistemas de 4º de ESO: Introducción de los Sistemas de Información Geográfica en Secundaria como herramienta didáctica’.

El resumen nos dice:

Uno de los nuevos retos de la sociedad actual, a la que se enfrenta la escuela, es el uso de las Tecnologías de la Información y la comunicación (TIC’s) en gran parte de las acciones y ámbitos de nuestra vida cuotidiana. El uso de las TIC’s como prácticas pedagógicas innovadoras ha dado lugar a un gran número de proyectos que fomentan el aprendizaje significativo del alumnado. En este sentido, el presente trabajo de fin de máster, aborda el uso de los Sistemas de Información Geográfica (SIG) como herramienta didáctica innovadora para llevar a cabo la unidad didáctica de Ecología y Ecosistemas ubicada en el Bloque 4 de la asignatura Biología y Ecología de 4º de ESO, según el Real Decreto 1105/2014.”

En este enlace podéis acceder al PDF integro:

gvSIG Team: GIS applied to Municipality Management: Module 6 ‘Add-ons manager’

Thu, 01/18/2018 - 11:44

The video of the sixth module is now available, in which we are going to talk about the Add-ons manager.

Each version of gvSIG carries a large number of extensions and symbol libraries that are not installed by default in order to avoid overloading the application. The user can choose when to install them, and the Add-ons Manager can be used for that.

Besides, if a new gvSIG extension or symbol library is published after the final version release, it is not necessary to wait for the next version to be able to use them. With the Add-ons Manager we have the possibility to connect to the server and install them.

Also, if an error has been fixed after releasing a final version, the plugin can be updated without having to release a full version.

The Add-ons Manager offers us three options:

  • Standard installation: Plugins included in the installation package that has been downloaded but not installed by default.
  • Installation from file: When we download the extension package, script or symbol library on our disk. It’s very useful when we create a symbol library and we want to share it with the rest of users of our organization.
  • Installation from URL: Available plugins on the server. It is normally used for packages published after a final version, either new functionalities or to fix an error detected after publishing the final version.

In this module it won’t be necessary to download any cartography previously.

Here you have the third videotutorial of this sixth module:

Related posts:

GRASS GIS: GRASS GIS as described by a Google Code-In student

Wed, 01/17/2018 - 18:59
The Google Code-In contest is almost over. Today, January 17th, was the last day in which students could submit their work for revision. Last night we got one of the last tasks submissions for GRASS GIS within the contest. We...

PostGIS Development: PostGIS Patch Releases 2.3.6 and 2.4.3

Wed, 01/17/2018 - 01:00

The PostGIS development team is pleased to provide bug fix release 2.3.6 and 2.4.3 for the 2.3 and 2.4 stable branches.

Key fixes in these releases are Brin upgrade, ST_Transform schema qualification to fix issues with restore, foreign table, and materialized view use, ClusterKMeans and encoded polyline fixes.

View all closed tickets for 2.4.3 and 2.3.6.

After installing the binaries or after running pg_upgrade, make sure to do:


— if you use the other extensions packaged with postgis — make sure to upgrade those as well

ALTER EXTENSION postgis_sfcgal UPDATE; ALTER EXTENSION postgis_topology UPDATE; ALTER EXTENSION postgis_tiger_geocoder UPDATE;

If you use legacy.sql or legacy_minimal.sql, make sure to rerun the version packaged with these releases.



Fernando Quadro: Testando softwares para Big Data Spatial – Parte 2

Tue, 01/16/2018 - 11:59

Neste post iremos falar um pouco dos software que iremos utilizar no nosso teste, iniciando pelo Hadoop e passando por HBase.

1. Apache Hadoop

O Apache Hadoop é, quando buscamos um pouco no Google… uma estrutura que permite o processamento distribuído de grandes conjuntos de dados em clusters de computadores usando modelos de programação simples. Ele é projetado para ampliar de servidores individuais para milhares de máquinas, cada uma oferecendo processamento e armazenamento local. Ao invés de confiar no hardware para oferecer alta disponibilidade, a própria biblioteca é projetada para detectar e lidar com falhas na camada do aplicativo, oferecendo assim um serviço altamente disponível em um cluster de computadores, cada um dos quais podendo ser propenso a falhas.

O HDFS é um sistema de arquivos distribuídos que fornece acesso de alto desempenho aos dados em todos os clusters Hadoop. Como o HDFS normalmente é implantado em hardware de baixo custo, as falhas do servidor são comuns. O sistema de arquivos foi projetado para ser altamente tolerante a falhas, no entanto, facilitando a transferência rápida de dados entre os nós e permitindo que os sistemas Hadoop continuem sendo executados se um nó falhar. Isso diminui o risco de falha catastrófica, mesmo no caso de falhas em inúmeros nós.

Nosso teste usará o Hadoop e seu HDFS como repositório de dados onde vamos salvar e, finalmente, publicar para o aplicativo do usuário final. Você pode ler os recursos do projeto aqui, ou mergulhar na Internet para aprender profundamente sobre isso.

Utilizei o Windows para os meus testes. Os lançamentos oficiais do Apache Hadoop não incluem binários do Windows, mas você pode facilmente criá-los com este ótimo guia (Ele usa o Maven) e configurar os arquivos necessários pelo menos para executar um único cluster de nós. Claro, um ambiente de produção exigirá que configuremos um cluster multi-nó distribuído ou use uma distribuição “apenas para uso” (Hortonworks) ou salte para a Nuvem ( Amazon S3 , Azure, etc…).

Continuamos com este guia; Depois que o Hadoop foi construído com Maven, os arquivos de configuração foram editados e as variáveis ​​de ambiente foram definidas, podemos testar se tudo está bem executando no console …

> hadoop version

Em seguida, começamos os “daemons” dos objetos namenode e datanode, e o gerenciador de recursos “yarn”.

> call ".\hadoop-2.8.1\etc\hadoop\hadoop-env.cmd" > call ".\hadoop-2.8.1\sbin\start-dfs.cmd" > call ".\hadoop-2.8.1\sbin\start-yarn.cmd"

Podemos ver o aplicativo de administração Hadoop rodando na porta HTTP configurada, 50070 no meu caso:

2. Apache HBase

O Apache HBase é, procurando novamente no Google… um banco de dados NoSQL que é executado no topo do Hadoop como um grande armazenamento de dados distribuído e escalável. Isso significa que o HBase pode alavancar o paradigma de processamento distribuído do sistema de arquivos distribuídos Hadoop (HDFS) e se beneficiar do modelo de programação MapReduce do Hadoop. Ele destina-se a hospedar tabelas grandes com bilhões de linhas com potencialmente milhões de colunas e executados em um cluster de hardware de commodities.

Você pode ler aqui para iniciar e instalar o HBase. Mais uma vez, verificamos a versão do produto executando:

> hbase version

Inicie o HBase:

> call ".\hbase-1.3.1\conf\hbase-env.cmd" > call ".\hbase-1.3.1\bin\start-hbase.cmd"

Veja o aplicativo de administração HBase na porta 16010, no meu caso:

Ok, neste momento, temos o grande ambiente de dados funcionando, é hora de preparar algumas ferramentas que acrescentam capacidades geoespaciais; GeoWave e GeoServer, vamos em frente no próximo post

Fernando Quadro: Testando softwares para Big Data Spatial – Parte 1

Mon, 01/15/2018 - 18:37

O objetivo deste artigo é mostrar os resultados testando a integração de uma plataforma Big Data com outras ferramentas geoespaciais. É necessário salientar que a integração de componentes usados, todos eles de código aberto, nos permite publicar serviços WEB compatíveis com padrões OGC (WMS, WFS, WPS).

Este artigo descreve as etapas de instalação, as configurações e o desenvolvimento feito para obter um aplicativo de mapeamento que mostre medidas de NO2 de aproximadamente 4k estações européias durante quatro meses (Observações foram registradas por hora), resultado em torno de 5 milhões de registros. Sim, eu sei, esses dados não parecem um armazenamento “Big Data”, mas parece grande o suficiente para verificar o desempenho quando as aplicações o lêem usando filtros espaciais e / ou temporais (clique na imagem acima para ver o vídeo).

O artigo não se concentra em ensinar um conhecimento mais profundo dos softwares usados, todos eles já tem publicado boa documentação do ponto de vista do usuário ou do desenvolvedor, simplesmente quero oferecer experiências e um guia simples para coletar recursos de componentes de software. Por exemplo, comentários sobre o GeoWave e sua integração com o GeoServer são uma cópia do conteúdo do guia do produto em seu site.

1. Esquema de dados

Os dados de teste foram baixados da European Environment Agency (EEA). Você pode pesquisar aqui informações ou visualizadores de mapas desta ou de outras fontes, ou melhor, você pode usar seus próprios dados. GDELT é outro projeto interessante que oferece dados maciços.

O esquema dos dados do teste é simples, a entrada é um grupo de arquivos CSV (arquivos de texto com seus atributos separados com vírgulas) com coordenadas geográficas do tipo ponto (Latitude / Longitude) que georreferenciam o sensor, a data da medida e a concentração de NO2 no ar. Existem outros atributos secundários, mas não são importantes para o nosso teste.

2. Arquitetura de software

O teste consiste na cadeia de um conjunto de ferramentas, todos eles oferecem dados e funcionalidade ao próximo componente de software na arquitetura do aplicativo. O fluxo de trabalho do aplicativo começa com o Hadoop e seu HDFS, HBase para mapeá-lo como um banco de dados, o ótimo GeoWave trabalhando como um conector entre ele e o popular GeoServer que implementa vários padrões OGC e, finalmente, um aplicativo de cliente web que busca dados para mostrar mapas como usual (por exemplo, usando Leaflet e Heatmap.js biblioteca).

No próximo post iremos falar detalhadamente de cada um dos softwares apresentados na imagem acima! Não Perca!

gvSIG Team: GIS applied to Municipality Management: Module 5.3 ‘Web services (Non-standard services)’

Mon, 01/15/2018 - 14:51

The third video of the fifth module is now available, in which we will talk about how to work with web services that don’t follow the OGC standards in gvSIG Desktop. These web services can be used to complement our maps with different layers.

Among these services we have OpenStreetMap, with which we have access to several layers. for example streets, nautical cartography, railroads, or cartography with different tonalities that can be used as reference cartography on our map.

Other available services are Google Maps and Bing Maps, where we can load different layers.

The requirement to load these layers in gvSIG (until 2.4 version) is that we must have the View in EPSG:3857 reference system, a proprietary system used by these services.

Besides, in order to load the Bing Maps layers, we will need to obtain a key previously, from the Bing Maps Dev Center.

Once we have these services, we can add our layers, reprojecting them to the view reference system. In addition, many OGC web services, such as WMS, WFS …, offer their layers in this reference system, so we can overlap them on our Bing Maps, Google Maps or OpenStreetMap layers.

Here you have the third videotutorial of this fifth module:

Related posts:

OSGeo-fr: Le FOSS4G-fr aura lieu en mai 2018, serez-vous sponsor, conférencier ou les deux ?

Thu, 01/11/2018 - 22:07

L'OSGeo-fr organise le prochain FOSS4G-fr du 15 au 17 mai 2018, à l’École Nationale des Sciences Géographiques, Marne-la-Vallée - Paris.

Opportunité unique de rencontres, cet événement s'adresse à tous les acteurs de l'écosystème GéoSpatial Opensource francophone : décideurs, utilisateurs, développeurs.

Cette 3ème édition se déroulera sur 3 jours : 2 jours de conférences précédés d’une journée d’ateliers, sur des thématiques volontairement larges et inspirantes !

A ce stade, vous pouvez d’ores et déjà :
- Prendre date !
- Soumettre présentation ou atelier ;
- Devenir sponsor de l’événement.

L’ensemble des informations sur le site :

Nous comptons sur vous !

OSGeo-fr: Le FOSS4G-fr aura lieu en mai 2018, serez-vous sponsor, conférencier ou les deux ?

Thu, 01/11/2018 - 22:07

L'OSGeo-fr organise le prochain FOSS4G-fr du 15 au 17 mai 2018, à l’École Nationale des Sciences Géographiques, Marne-la-Vallée - Paris.

Opportunité unique de rencontres, cet événement s'adresse à tous les acteurs de l'écosystème GéoSpatial Opensource francophone : décideurs, utilisateurs, développeurs.

Cette 3ème édition se déroulera sur 3 jours : 2 jours de conférences précédés d’une journée d’ateliers, sur des thématiques volontairement larges et inspirantes !

A ce stade, vous pouvez d’ores et déjà :
- Prendre date !
- Soumettre présentation ou atelier ;
- Devenir sponsor de l’événement.

L’ensemble des informations sur le site :

Nous comptons sur vous !

gvSIG Team: GIS applied to Municipality Management: Module 5.2 ‘Web services (Loading web services from gvSIG)’

Thu, 01/11/2018 - 13:46

The second video of the fifth module is now available, in which we will see how to load web services from gvSIG Desktop. In the first video of this module we saw an introduction on the Spatial Data Infrastructures (SDI), which helped us to understand this new video in a better way.

Many administrations have a large amount of cartography available for users, being in many cases web services that are accessible from desktop applications or web browsers, which allow us to access this cartography without having to download anything on our disk.

The cartography to follow this video is available at this link.

Here you have the second videotutorial of this fifth module:

Related posts:

Jackie Ng: RIP: Autodesk Infrastructure Map Server (2006-2018)

Thu, 01/11/2018 - 07:11
Prepare the burial plot in the Autodesk Graveyard, the news has come out which I had long suspected, but is now official: Autodesk has ceased development of Infrastructure Map Server, the commercial counterpart of MapGuide Open Source.

However unlike Autodesk's other ill-fated products, Infrastructure Map Server has the unique lifeline of being able to live on through the MapGuide Open Source project because AIMS is built on top of MapGuide Open Source. Just because AIMS has died does not mean the same fate has to apply to MapGuide Open Source. This project has been in existence for 12 years and counting. The future of the MapGuide Open Source project can be as bright as the community allows for it.

If you are an AIMS customer wondering what your options are in light of this announcement, you should subscribe to the mapguide-users mailing list (if you haven't already) and share your thoughts, questions and concerns.

If you provide support/consulting/development for MapGuide/AIMS you should also subscribe and advertise your services.

I'll make some announcements on the mailing lists about future plans for MapGuide Open Source.

Rest in peace Autodesk Infrastructure Map Server, formerly known as MapGuide Enterprise (2006 - 2018)

Fernando Quadro: A transformação da França através do Open Data

Wed, 01/10/2018 - 20:43

Se um entusiasta de Open Data tentar inspirar outros, ele logo será confrontado com uma pergunta difícil: qual é o impacto? Alguns podem convencer com longos monólogos sobre transparência e potencial de inovação, mas, muitas vezes, todas as necessidades são alguns exemplos inspiradores de dados abertos do mundo real.

Antes de saltar para o impacto da Open Data, vamos dar uma olhada em alguns dos conjuntos de dados mais interessantes. Um dos conjuntos de dados abertos visualmente mais atraentes ao redor do mundo é o Archives of the Planet do Museu Albert Kahn. O departamento francês decidiu publicar o arquivo de mais de 60 mil fotos de lugares do mundo todo há mais de um século. No portal Open Data do departamento, os usuários podem navegar em uma galeria e clicar em um mapa para descobrir as imagens. Graças à API, o museu foi capaz de construir facilmente um novo site para expor este tesouro de forma fácil e aumentar significativamente o número de visitantes no seu site em dez vezes.

Enquanto muitos portais apresentam a posição de lugares de estacionamento nas ruas ou em lotes, apenas alguns indicam sua disponibilidade em tempo real. A cidade francesa de Issy-Les-Moulineaux, no entanto, consegue fazer isso onde outros ficam aquém; produziu um conjunto de dados de sensores em tempo real sobre a disponibilidade de lugares de estacionamento em algumas de suas ruas e foi ainda mais longe para criar um mapa que exibisse disponibilidade de espaço de estacionamento. A cada minuto, a plataforma tira os dados provenientes de sensores que foram instalados na superfície das ruas.

Um fato que sabemos é que quanto mais fácil for para os desenvolvedores reutilizarem dados, mais provável é que eles o façam. Um exemplo é Rennes, uma cidade francesa de cerca de 200.000 habitantes, cujo operador de transporte público (STAR), operado pela Keolis, publicou a localização dos ônibus em tempo real no seu portal Open Data. Você pode aprender muito mais sobre este estudo de caso, mas para dar uma pista sobre os resultados, a empresa atualmente lista um total de sete aplicativos de transporte construído por desenvolvedores provenientes da comunidade.

Embora o impacto seja frequentemente o objetivo desejado, ele não necessariamente motiva todos os funcionários que são solicitados a publicar conjuntos de dados. Afinal, o Open Data é considerado um trabalho adicional cujo valor agregado é difícil de projetar. Surpreendentemente, no entanto, quando concluído, o Open Data também pode ter benefícios importantes para uma organização.

Como um dos primeiros adotantes de dados abertos na França, a cidade acima mencionada de Issy-Les-Moulineaux decidiu publicar seu orçamento financeiro em 2011 para aumentar a transparência. Eles empurraram os dados para o portal e pediram a uma agência web que criasse um site dedicado para apresentar os dados de forma fácil de usar simplesmente incorporando os gráficos provenientes do portal. Desta forma, eles foram livres para fornecer um excelente contexto descritivo aos seus dados orçamentários. Seu truque: os gráficos são sincronizados com cada conjunto de dados, portanto, quando os dados são atualizados a cada ano, os gráficos também mudam. Assim, a cidade investiu apenas uma vez no desenvolvimento, que são capazes de replicar todos os anos com os dados mais atualizados.

Da mesma forma, o fornecedor francês de eletricidade ENEDIS está fazendo uso do portal Open Data para comunicação aberta externa. As visualizações interativas apresentadas em seu principal site corporativo foram desenvolvidas através do conjunto de APIs de geradas pelo portal, economizando os principais custos de desenvolvimento da empresa.

Quando o Ministério da Agricultura francês procurou uma ferramenta de busca simples para exibir empresas que vendem produtos de agricultura química para agricultores e consumidores, eles tiveram a opção de trabalhar com uma empresa de consultoria ou de contar com seu portal. Graças ao uso fácil de widgets, o Ministério criou um painel que listaria todas as empresas, pontos de varejo e informações relacionadas em um mapa. O projeto levou três dias para configurar – e também está sendo usado como um ponto de referência interno.

Os dados de publicação exigem que as organizações repensem sua estratégia interna de gerenciamento de dados. Hoje, Open Data ainda é muitas vezes considerado como “trabalho extra” que deve ser feito para marcar uma caixa. Muitos imaginam portais volumosos com arquivos para download em vez de dados dinâmicos que se pode explorar em visualizações interativas e acesso em diferentes formatos e através de APIs de conjunto de dados. Indexar os próprios registros de dados (em oposição aos arquivos) e transformá-los em APIs permite que as organizações trabalhem com seus próprios dados de uma maneira totalmente nova. Em vez de enviar arquivos de um funcionário para outro (ou carregá-los para uma unidade virtual), os dados em si podem ser compartilhados. Do ponto de vista técnico, é possível criar um ponto de acesso central para uma organização, ao mesmo tempo em que dá aos diferentes usuários diferentes níveis de acesso, dividindo os silos de dados. Isso assegura não só o acesso à versão de dados mais recentes em uma organização, mas também a sua fácil reutilização através de APIs em painéis ou outros serviços da Web. Portanto, são as próprias organizações que se beneficiam mais de uma estratégia otimizada de gerenciamento de dados. E, finalmente, abrir esses dados para o resto do mundo, pois Open Data muitas vezes não exige muito mais do que um simples clique do mouse.

É muito bom ver o quanto o Open Data está fazendo na França, em pensar que esses são apenas alguns exemplos, mas sabemos que as possibilidades são infinitas. Espero que um dia cheguemos nessa maturidade aqui no Brasil, de ter dados de verdade disponibilizados para que possamos explorá-los e criar produtos que ajudem a população.

Esta é uma tradução livre do artigo original escrito por Christina Schönfeld no site OpenDataSoft.

Fonte: OpenDataSoft

From GIS to Remote Sensing: Announcing the release of the new Semi-Automatic Classification Plugin

Mon, 01/08/2018 - 12:24
I am very pleased to announce the release date of the new Semi-Automatic Classification Plugin (SCP) version 6 (codename Greenbelt).
This new SCP version, which is compatible with QGIS 3 only, will be released on the:
 22 January 2018
The Semi-Automatic Classification Plugin (SCP) version 6 has the codename Greenbelt (Maryland, USA) which is the location of the NASA’s Goddard Space Flight Center that had a key role in Landsat satellite development and will lead the Landsat 9 development of the space and flight segments (Landsat 9 to be launched in 2020).

Main interface