GitLab 7.2 – feature, feature e ancora feature

- Open Source

GitLab Explore page

GitLab sembra aver messo il turbo. Di rientro dalle ferie infatti, aprendo il feed reader che ormai gridava vendetta per la quantità di elementi non letti che avevo, ho visto che proprio ieri è stata rilasciata la versione 7.2 di questo software open source che ho iniziato a usare ormai in ambito di produzione, e che sinceramente trovo di una bellezza (si può dire di un programma che è bello?) disarmante. Ci sono un bel po’ di novità in GitLab 7.2, e arrivano tutte a stretto giro rispetto al mio post dell’altra volta, il che mi ha sorpreso notevolmente. Il changelog è fitto di migliorie per così dire estetiche, ma bando alle ciance, andiamo a vedere cosa ci aspetta con questo aggiornamento:

  • Le etichette: adesso le etichette possono essere colorate :-) Se ne facciamo largo uso, sicuramente ci perderemo in mezzo a un bazilione di label diverse assegnate alle nostre issue di progetto. Finalmente è possibile colorare queste etichette, e colorarle non solo di una palette predefinita ma anche di colori personalizzati. Dato che mi sta molto a cuore l’issue management, considero cambiamenti come questo irrisori dal punto di vista teorico, ma ingenti dal punto di vista pratico visto che permettono un colpo d’occhio decisamente più efficace sullo stato di avanzamento dei lavori.
  • Le Star: In azienda si usano diversi strumenti per il networking tra dipendenti. Di fatto, col tempo, la Star di GitHub è diventato oltre che un’aggiunta al proprio elenco di bookmark, anche un importante elemento di social networking dato che ha emulato il Like di Facebook. Circa. GitHub se n’è accorto, e per stilare GitHub Explore (ovvero l’interessantissima newsletter che mandano ogni settimana agli iscritti – e voi dovreste iscrivervi, che domande) usa proprio delle metriche parametrizzate sul numero di star che un progetto riceve – oltre che i fork e tante altre cose. GitLab 7.2 può fare la stessa cosa, finalmente, quindi per gli utenti è possibile “starrare” i repository di altre persone oltre che forkarli. Hell yeah!
  • Diff unfolding: Questa è una novità molto interessante. Di solito nel diff che ci mostra GitLab le parti nascoste non possono essere visualizzate. Vediamo quindi solo ciò che è inerente il contesto delle rimozioni e delle aggiunte ad ogni file. GitLab 7.2 introduce invece la possibilità di clickare sui puntini di sospensione visualizzati sull’interfaccia web del tra i commit, permettendoci di visualizzare ulteriori parti non cambiate del file, fino ad arrivare a visualizzare tutto, senza esclusioni di sorta. Molto, molto bene – ed è, credo, anche la feature tecnicamente più rilevante di questa versione.
  • Pagina Explore rivista: La pagina Explore, che sarebbe quella pagina web dove vengono visualizzati tutti i progetti pubblici della vostra installazione di GitLab, è stata completamente rivisitata in favore di un design più moderno, pulito e meno “brandizzato”, se vogliamo. Sono molto soddisfatto di questa pagina personalmente; mi auguro che anche altre parti dell’interfaccia vengano riviste (magari non quelle relative alla dashboard) per rispecchiare questo design.

Aggiornamento

Beh, abbiamo spolpato abbastanza il changelog – il resto sono caratteristiche della versione Enterprise, o che non mi interessano (:-D). Quello che invece rimane è l’aggiornamento: siccome è il mio primo aggiornamento di GitLab, “recensisco” (e vi mostro in breve) la procedura adesso; pensavo a qualcosa di più complicato, invece per aggiornare la vostra installazione di GitLab 7.1 a GitLab 7.2 basta dare i semplici comandi di seguito.

Per prima cosa, creiamo un backup:

$ sudo gitlab-rake gitlab:backup:create

Dopodiché, andiamo a interrompere le operazioni dei servizi che ci intralcerebbero, scarichiamo il pacchetto, e installiamo la nuova versione:

$ sudo gitlab-ctl stop unicorn
$ sudo gitlab-ctl stop sidekiq
$ wget https://downloads-packages.s3.amazonaws.com/debian-7.6/gitlab_7.2.0-omnibus-1_amd64.deb
$ sudo dpkg -i gitlab_7.2.0-omnibus-1_amd64.deb
$ sudo gitlab-ctl reconfigure
$ sudo gitlab-ctl restart

Gli ultimi due comandi lanceranno la riconfigurazione e la migrazione a GitLab 7.2.

La parte divertente

Già che ci siamo vi racconto anche un aneddoto interessante: non fate gitlab-ctl stop, per nessuna ragione al mondo, oppure arresterete anche Redis e PostgreSQL (o quello che usate come database) – che è quello che ho fatto io al posto di stoppare solo Unicorn e Sidekiq. Il risultato è stato che gitlab-reconfigure ha fallito la migrazione del database, e mi sono dovuto andare a cercare come lanciarla a mano (senza trovare nulla: quello che vedete sotto è un comando inventato sul momento che per puro caso era veramente quello. :-D

Per lanciare manualmente la migrazione del database della vostra installazione di GitLab, aprite una shell e date questo comando:

$ sudo gitlab-rake db:migrate

Tutto andrà a posto, come nei finali delle migliori fiabe.

Buon lavoro a tutti :-)

Stakeholder dell’innovazione, tra pubblico e privato

- Tech

Google Law

Siamo nella situazione prevista da Lawrence Lessig nel suo Code. Le leggi le fa il software. La sfiducia nella politica impedisce di ritenere possibile e sensato un intervento democratico.

Luca De Biase fa un degno punto della situazione correlando alcuni fatti di questi giorni, e correlandoli piuttosto bene. Ci sono però alcune precisazioni da fare, e qualche bastonata da dare a chi dovrebbe fare di più ma rimane evidentemente impantanato nel proprio operato.

Perché è vero che le leggi in questo momento le sta facendo il software – o meglio, chi sta dietro a un preciso software – però c’è sempre da dire che le leggi hanno il compito di regolare e in parecchi casi coadiuvare il rapporto tra individui e tra enti; e se i software, per così dire, hanno potere legislativo in questo tavolo è solo perché dovrebbero esserci altri stakeholder immersi in questa trattativa, in questo caso (per l’Italia) drammaticamente assenti.

Dove sono i nostri digital champion? Dove sono le istituzioni, quelle vere? Non sono dell’opinione di Luca, in Parlamento abbiamo diverse figure competenti in materia; è che probabilmente non vengono indirizzate queste competenze nella maniera giusta. Infine, un grosso plauso al concetto del mettere in piedi un’infrastruttura in cui tutti possano muoversi nella norma, senza daneggiare nessuno, e senza il bisogno di costruire la Google Nation. Che sennò poi c’andiamo a rimettere.

Digital champion italiani, vi si aspetta al varco, metteteli voi i paletti ché nessun altro è qualificato per farlo.

Photo courtesy of Daniel Mitsuo

GitLab 7.1 – sempre più simile a GitHub, ma open source

- Open Source

GitLab 7.1

Nonostante in questo periodo stia guardando con interesse qualsiasi notizia proveniente dal mondo open source mi ero perso uno degli aggiornamenti più importanti riguardo – probabilmente – uno tra i miei software preferiti, ovvero GitLab. Il clone open source del sistemone che usa GitHub (non esageriamo, ma in piccolo è così) infatti si è reso veramente molto simile al suo parente chiuso, con alcune feature che, portate in uso stabile in questa release, lo rendono perfetto anche per aziende che dal proprio flusso di lavoro pretendono parecchio anche a livello di frontend per i propri sviluppatori.

Bando alle ciance, il changelog di GitLab 7.1 parla da sé:

  • API per i contributor: adesso possiamo prenderci tutti i contributor di un progetto con una singola chiamata API. Statistics incoming! :D
  • Discussioni: se c’è una cosa che GitHub sa fare bene, è consentire a persone potenzialmente sociopatiche e omicide di esprimersi verbosamente senza causarsi danni fisici. GitLab ha fatto tesoro di tutto questo, implementando un frontend per le discussioi che permette di tirare in ballo linee di codice, emoticon e quant’altro (persino cambiamenti & co.) senza dover sacrificare nessun gallo nero al signore oscuro. Un grosso passo avanti. Mi scusino gli sviluppatori che si sentono vessati da queste osservazioni… ma lo sapete meglio di me che è vero. Vi vengo a portare le arance al gabbio, prometto.
  • Nuova pagina di login: è bellissima. Punto. Forse un filo enterprise, ma ci sta.
  • VERSION nella sidebar: se avete un file VERSION all’interno del repository, vi verrà mostrato nella sidebar il contenuto, ovvero il version number. Mai più persi tra mille rilasci ;)
  • Milestone di gruppo: semplicemente epico. Se abbiamo un progetto suddiviso in più sottoprogetti, le group milestone permettono di raggruppare tutte le issue di tutti i progetti che appartengono a una milestone nominata ugualmente in ogni sezione. Questo significa che per la milestone “pippo” potremo avere una visione di insieme parecchio ampia per quanto riguarda ogni milestone e chiuderla (o riaprirla per lavori dell’ultimo minuto) con molta più cognizione di causa, esaminando la situazione nel complesso.

È sicuramente un bel traguardo, questo, sia per GitLab che per l’intera comunità open source: avere a disposizione sia GitHub (che ormai è lo standard de facto per tutto quello che viene portato avanti in totale apertura) che un software as-a-service per sviluppare qualcosa di interno dove decidere la disponibilità per il pubblico di ogni repository è un grosso valore aggiunto, dato che naturalmente si abbassano i costi della piattaforma di code hosting, e soprattutto chi vuole può installare il proprio software in-house senza dover dipendere da fornitori con comportamenti ballerini.

Auguri GitLab, ancora una volta :-)

KDE: nuova API per la decorazione delle finestre

- Open Source

KDecoration 2

Our decoration API is also showing it’s age. It’s cumbersome to use, too difficult to use. In fact there is a KDecoration and a KCommonDecoration – the latter trying to make KDecoration easier to use by for example providing buttons. The API got extended several times to support more features which are all optional. […] So what makes KDecoration2 better? Obviously it’s no longer QWidget or QWindow based. Instead it’s a pure QObject based API.

La citazione di cui sopra è di Martin Gräßlin, che mi fa sempre impazzire per la qualità eccellente della comunicazione di ciò che accade all’interno del ciclo di sviluppo della decorazione finestre di KDE. In sostanza, adesso KDecoration2 (ovvero il nuovo decoratore delle finestre in KDE Frameworks 5) espone una API basata su QObject, la quale immagino che renderà più flessibile la manipolazione della titlebar in modo da non introdurre solamente oggetti come i bottoni più classici dei classici, ma anche altro.

Un po’ come OS X, per esempio, o le header bar di GNOME Shell. Però fatte un po’ meglio.

Vi(m): impararlo con un solo video

- Open Source

Vim on a Linux shell with dwm

Ormai vi è diventato per me uno strumento di costante lavoro. Quando non mi viene richiesto un IDE lo utilizzo per scrivere codice e parecchio altro; soprattutto mi torna utile in tutti quegli ambiti dove un editor grafico seppur buono come Sublime Text non mi serve allo stesso modo. Proprio oggi sfogliando Reddit sono inciampato in un utilissimo video che insegna come usare vi (e conseguentemente anche vim).

Imparàtevelo. Vi servirà, ne potete star certi.

Come mi ricorda il mio amico Claudio che sta seduto qui affianco a me in treno a farmi da umarell mentre scrivo (:-D) su Linux potete servirvi di vitutor, che fa la stessa cosa in maniera leggermente più pratica e meno “videata”.

Docker 1.0: impressioni, analisi e previsioni

- Open Source

In questo periodo sono successe parecchie cose, per questo ho preferito tralasciare un pochino il blog, ossia adattarlo ai nuovi ritagli di tempo di cui dispongo (che sono ancora inferiori a quelli che avevo prima) – un po’ tipo Calcare con il suo, non so se avete presente. Dico questo solo per giustificarmi di un’assenza prolungata: c’entra ben poco con quello che sto per introdurre.

Dock

Sul finale di questo mio periodo di assenza infatti è stato annunciato Docker 1.0, ossia una milestone release del progetto che maggiormente, probabilmente, da un anno a questa parte ha attirato la mia attenzione. Docker è, in buona sostanza, un modo intelligente di sfruttare LXC per innestare le applicazioni che configuriamo in dei veri e propri “container” virtuali, i quali poi possono essere esportati su qualsiasi altra macchina. È richiesto solo Docker; fornita un’infrastruttura di base, tutto il resto continuerà a funzionare. Docker è versatile, perché è eseguibile in istanze virtuali, ma anche su macchine fisiche, e così via. La praticità di Docker è innestabile a qualsiasi livello, e questo lo rende una tecnologia perfetta anche a livello enterprise.

Cosa significa Docker 1.0

Docker 1.0 significa un sacco di cose. Principalmente, significa che ora come ora Docker è una piattaforma in rapida crescita, che si appresta ad avere come target il mondo enterprise ad un livello visto sinora solo con tecnologie come OpenStack (e, ehm, Linux? Ma voglio andarci piano coi paragoni). Per questo motivo, mi aspetto che in questi mesi e principalmente nel prossimo anno Docker raggiunga un livello di diffusione planetario, anche perché il suo primo periodo di vita depone molto bene a suo favore: con i numeri che ha alle spalle, sicuramente è diventato una tecnologia su cui investire del tempo, che magari in Italia viene snobbata per alternative vecchie come il cucco e sostanzialmente best-effort, ma che magari può fornire buone opportunità per consulenze in aziende estere, anche di grandi dimensioni.

Docker 1.0 significa feature: la codebase si ingrandirà, tanto che con questo traguardo già abbiamo alcuni importantissimi segnali di un progetto sano e di successo, come un registry pubblico dei container (simile ad npm per Node.js, ma per i propri dock), chiamato Docker Hub, e tantissime caratteristiche come ottimizzazioni sullo scheduling e sulla rimozione dei container che, beh, non fanno che rendere Docker più production-ready di quanto già non fosse. Di quanto già non fosse per un motivo ben preciso: Docker è un software che, a prescindere dalla bontà de facto del codice sorgente, è stato capace di tirare su dei numeri notevolissimi mentre lo stesso team di sviluppo si spolmonava (beh, più o meno) a scrivere ovunque “do not run in production”. E di irresponsabili, per così dire, in giro ce ne sono stati parecchi. Alcune cifre e alcuni nomi ce lo possono testimoniare.

Momentum: numeri e fatti su Docker 1.0

Ce lo dice l’annuncio di rilascio: Docker per tutto l’ultimo anno, dal 20 marzo 2013, è stato praticamente il protagonista dell’innovazione emergente dal punto di vista dei sistemi e della virtualizzazione in container. Quello che abbiamo davanti, da qualche settimana, è un tarball che dietro nasconde questo:

  • 460 contributor;
  • 8.741 commit;
  • 2.75 milioni di download;
  • 14.000 “Dockerized apps”, che suppongo siano container uploadati su quello che ora è il Docker Hub.

Ma non solo: Docker ha subito un pesante endorsement da aziende che fregandosene del suo status hanno cominciato ad integrarlo nella propria infrastruttura e a sperimentarci su. Per esempio, una serie di nomi molto interessanti, anche di aziende che producono software che usiamo sul nostro PC ogni giorno:

Per non parlare dei casi di studio forniti da Atlassian, PuppetLabs, IBM, Netflix, Google.

Docker: risorse interessanti e tutorial

Contestualmente a tutto questo fiorire di Docker nella produzione e nella pre-produzione di aziende il cui fatturato arriva ad essere una parte rilevante dell’economia globale, hanno cominciato a spuntare come funghi risorse su Docker, insieme a degli articoli che spiegano come sfruttare al meglio questo software all’interno di determinati processi. Ne ho da poco cominciato a stilare una piccola collezione, che riporto qui di seguito allo stato attuale, anche per tenere traccia di come ad oggi sia messo il panorama. Periodicamente condividerò anche altro, ma già ora – che Docker non è nemmeno diventato per così dire pronto per il panorama enterprise – ci sono diversi post che hanno suscitato il mio interesse.

  • Persistent volumes with Docker – Data-only container pattern – Un interessantissimo post che segnala come sia possibile creare dei container di soli dati per il management dei contenuti grezzi via Docker, in maniera da non perdere nulla, avere tutto ciò che facciamo tracciato tramite i sistemi di logging dell’infrastruttura e molto altro ancora. Utile, utile, utile. L’ho già detto utile?
  • Red Hat mashes Docker containers into its Enterprise Linux distribution – Yes! Docker è attivamente supportato da Red Hat, il che significa che nella prossima Red Hat Enterprise Linux questa tecnologia sarà installabile con un colpo di yum e un po’ di olio di gomito per quanto riguarda la configurazione. Certo, è un endorsement di piccola entità, ma venendo da un colosso come Red Hat che non dà mai niente per niente, sicuramente conta più che il Docker incluso in qualsiasi repository third-party di una distro a caso scalcagnata.
  • Analyzing Docker’s New OSS: libchan and libswarm – L’annuncio di Docker 1.0 non ha significato solo stabilità, ma anche una di nuove librerie completamente open source per la composizione di servizi di rete complessi che fanno uso (tra le altro cose) anche di Docker. Libchan, libswarm e libcontainer sono dei fulgidi esempi di come un’azienda possa innovare non solo con il proprio prodotto di punta, ma con un ecosistema di librerie a corredo che rendono possibili delle caratteristiche piuttosto utili. Nell’articolo trovate tutti i dettagli, ad esempio, di come con un banale docker ps sia possibile grazie a libswarm avere una panoramica dei processi in esecuzione in più container. È una lucidissima analisi di come queste librerie appena rilasciate possano letteralmente cambiare il modo in cui è concepita e implementata la cloud che utilizziamo attualmente.
  • Integrating Docker with Jenkins for continuous deployment of a Ruby on Rails application – Un caso di studio piccolo, se vogliamo elementare, ma esemplare. I grandi software possono essere messi alla prova anche e soprattutto con piccoli compiti, e Docker con Jenkins non sfugge a questa logica: con questo tutorial possiamo implementare un piccolo caso di continuous integration dove Jenkins costruisce dei Docker container, e se i test unitari vanno a buon fine, li esegue. Personalmente, apprezzo molto questo tipo di contenuti, anche perché mostrano applicazioni reali di software che altrimenti non avremmo (quasi) idea di come usare. L’idea di utilizzare Docker come layer mediano in una struttura del genere è interessante (e onestamente non so come ho fatto a non pensarci prima. Genio! [cit. René Ferretti])
  • Announcing Docker Automated Builds on Bitbucket – Atlassian non solo si impegna nello sperimentare con Docker, ma offre a tutti noi utenti di Bitbucket (e, ehm, spero presto anche di Stash) un modo per fruire delle Automated Build senza dover per forza ricorrere a GitHub. Un modo come un altro, questa partnership, per avvicinare delle community e generare un impareggiabile valore aggiunto.

Photo courtesy of Tristan Taussac

Telegram per Linux: arriva Sigram (finalmente)

- Linux

Sigram, Telegram per Linux

Già ho avuto modo di esprimermi molto favorevolmente nei confronti di Telegram, che al tempo dell’ormai “storico” down di Whatsapp aveva preso il volo come l’alternativa per la messaggistica più gettonata. Nonostante i dubbi sulla sua politica per quanto riguarda l’open source e la privacy degli utenti, comunque l’avevo reputato decisamente più sicuro del concorrente Whatsapp e personalmente ho avuto modo di apprezzare la possibilità di avere delle API pubbliche che permettessero lo sviluppo di client di terze parti.

Telegram per Mac è un gran software, con il quale mi sono trovato piuttosto bene negli scorsi mesi, ma sinceramente lavorando la stragrande maggioranza del tempo sul mio desktop Linux (si applari, avete sentito bene) ho sentito la mancanza di un client nativo per questa piattaforma, potendo solo fare affidamento su Webogram, un client web-based di cui è disponibile anche l’app per Chrome.

Per fortuna, come ho letto su WebUpd8, è stato sviluppato Sigram, un client per Telegram che gira su Linux e utilizza tutte le mie tecnologie preferite:

  • C;
  • C++;
  • Qt;
  • QML.

Praticamente un sogno a occhi aperti per chi ama le librerie Qt – e perché no, anche la loro portabilità. L’interfaccia non è nemmeno malaccio, giocoforza QML rende tutto il software un po’ webbarolo e il gusto degli sviluppatori, evidentemente deformato da eventuali esperienze in Silicon Valley (se non sono dei residenti), ha fatto si che implementassero questa UI flattona (neologismi come se piovesse oggi eh) che però non si accorda molto bene con Unity o con qualsiasi ambiente desktop presente su Linux. Forse con KDE va un po’ meglio, ma siamo lì.

Per quanto riguarda l’installazione, in maniera molto spartana, dagli sviluppatori vengono forniti dei pacchetti .deb che dovrebbero andar bene sia su Ubuntu che su Debian. Viceversa, per le altre distribuzioni, mentre alcune non sono supportate, per le più popolari Fedora (e OpenSUSE?) e Arch Linux abbiamo una assortimento non ufficiale di RPM e PKGBUILD.

Nel complesso, sono molto soddisfatto. Un grande grazie agli sviluppatori, e un buon Telegram come sempre a tutti.

A night at the Camera

- Open Source

Sono le tre e mezza di notte, e io mi trovo in un posto molto pittoresco. Probabilmente il posto più pittoresco in cui un hacker (un hacker civico, per giunta, cribbio) possa essere: il Parlamento. O meglio, non esattamente: sto dando una mano a coordinare Code4Italy @ Montecitorio, l’hackathon della Camera dei Deputati che mette a disposizione l’expertise dello Stato agli hacker che vogliono utilizzare i dati della Camera, e al contempo permette al gestore dell’infrastruttura di portare a termine un’operazione di controllo qualità notevole.

Sinceramente, non mi aspettavo una partecipazione come quella che invece c’è stata, data l’istituzione presente che fa sempre un po’ paura: è notevole invece l’impegno di alcune persone, che sono rimaste persino a programmare sino a quest’ora pur di portare a termine il loro progetto.

Andrea Ferlito e Simone Cicinelli pensano a cosa fare. na specie.

Tra i risultati di questa prima giornata di hackathon possiamo annoverare parecchia polpa:

  • Bug squashing dei dati: da alcune persone sono state scoperte alcune piccole incongruenze all’interno del dataset. Chiaramente le riporteremo e queste verranno corrette. Bug reporting dal vivo!;
  • Sono già disponibili degli esempi di query SPARQL relativi all’endpoint della Camera: prima dell’hackathon non c’erano, e sicuramente è una buona occasione per cominciare a raccogliere le richieste e a rendere molto più fruibile quello che c’è;
  • Idee interessanti in ambito applicativo. Ma non le scriverò adesso, sarebbe un bello spoiler, anche se guardando nel posto giusto potete scoprire tante cose interessanti;
  • Hai voglia a controllare, siamo finalmente riusciti a sdoganare il mito e ci siamo tolti la giacca senza che gli assistenti parlamentari piombassero su di noi come falchi. Forma over sostanza.

È emozionante come ci stiamo devastando in una sede simile. Nonostante l’austerità di un luogo come la Camera, non esitiamo a farci venire delle borse sotto gli occhi da paura, e poi mescolare un’istituzione così rigida e con meccaniche così stringenti con un ambito quasi “facilone” come quello degli hackathon è decisamente divertente. Domani ci saranno le presentazioni dei risultati finali (grossomodo…), e sono orgoglioso dei developer che sono rimasti svegli con me: possiamo dire di esserci presi il Parlamento, anche se solo per una notte.

Saluti.

Un assonnato Ale

Firefox: niente pubblicità nelle nuove schede

- Open Source

Firefox

That’s not going to happen. That’s not who we are at Mozilla.

Stimo molto Mozilla, e una delle cose che durante gli scorsi mesi mi ha lasciato stupefatto è stata proprio la decisione di mandare in pensione la politica di non sponsorizzazione (per così dire) di alcunché al fine di favorire l’afflusso di denaro alla fondazione tramite il – secondo me – becero meccanismo del piazzare delle pubblicità nella schermata relativa alle nuove schede di Firefox.

Quello che mi ha stupito molto poco invece, chiaramente, è stato il feedback parecchio negativo degli utenti nei confronti di questo tentativo di bravata da parte del team di sviluppo. Nel giro di poco, Mozilla ha ridiscusso la cosa (passo che credo faccia parte dell’iter attraverso cui deve passare ogni feature) e proprio oggi Johnathan Nightingale, VP di Firefox, ha rilasciato un comunicato dove non solo viene ufficializzato il dietro-front, ma vengono anche avanzate quelle che potrebbero essere considerate scuse.

We’ll experiment on Firefox across platforms, and we’ll talk about what we learn before anything ships to our release users. And we’ll keep listening for feedback and suggestions to make this work better for you. Because that’s who we are at Mozilla.

Questo non significa solo che noi utenti banalmente non saremo costretti a doverci sorbire della pubblicità anche “dentro casa” per così dire, ma anche che ancora una volta uno dei baluardi del software Open Source si è tirato fuori con eleganza da una morsa capitalista che ora più che mai è inutile, mostrando ancora una volta quanto sia importante la sostenibilità di un progetto, piuttosto che il profitto che ne viene ricavato.

Ben fatto Mozilla. Adesso ho di nuovo fiducia in te.

Photo courtesy of conwest_john

Cloud server – su CloudAtCost ci sono i saldi

- Web

Cloud computing

Nonostante DigitalOcean mi offra un servizio più che soddisfacente, non mi piacciono più di tanto i canoni annui: è per questo che già da un po’ di tempo cercavo un momento per mettermi a tavolino e dare una chance a CloudAtCost, che con i suoi piani “lifetime” è davvero allettante. In pratica, il servizio che viene offerto è simile a quello di DigitalOcean, con un pannello di controllo meno bello ma con la possibilità di scegliere tra il pagamento mensile o un pagamento una tantum per la propria istanza.

I prezzi per il pagamento a vita non sono nemmeno malvagi: se avete necessità di una VPS, tutti i piani su CloudAtCost sono scontati del 25%, e il piano Big Dog 3 (quello più ciccione) è in saldo al 50%. Secondo me sono prezzi pazzi: con qualche spiccio in più di un centinaio d’euro ho preso per la vita un serverino con 2GB di RAM e 40GB di storage SSD. A vita.

Mica male no? Mi riservo di provarlo per un bel po’ di tempo, per poi sfornare (almeno, spero di ricordarmi) una comparativa approfondita. Chiaramente al momento del mio acquisto DigitalOcean, verde di invidia, ha lanciato il primo batch di IPv6; ma è così che funziona il libero mercato no? :D

Photo courtesy of incredibleguy