Un percorso formativo che ti aiuta a conoscere sia le basi, sia gli aspetti più tecnici del web.
Dai una risposta alle tue domande sulla tecnologia.

Con il termine ottimizzazione (in lingua inglese Search Engine Optimization, in acronimo SEO) nel linguaggio di internet si intendono tutte quelle attività finalizzate ad ottenere la migliore rilevazione, analisi e lettura del sito web da parte dei motori di ricerca attraverso i loro spider, grazie ad un migliore posizionamento.

Cosa è la SEO: Descrizione generale

L’attività SEO consente un facile reperimento del sito da parte degli utenti che cercano sui motori e normalmente determina l’aumento del volume di traffico qualificato (utenti specificamente interessati) che un sito web riceve tramite i motori di ricerca.

Tali attività comprendono l’ottimizzazione della struttura del sito e degli url (url optmization), dell’accessibilità delle informazioni da parte dei motori degli utenti, spider (robot and sitemap optimization) sia del codice sorgente (code and error optimization), degli approfondimenti link (link optimization), la presenza delle immagini, della pagina web, sia dei contenuti.

L’ottimizzazione è parte di un’attività più ampia, il Web marketing (marketing del web e dei motori di ricerca), differente dal Search Engine Marketing (SEM), che invece è una specifica branca del Web marketing che riguarda l’attività di acquisto di traffico svolta nei principali motori di ricerca (detta anche Adwords marketing).

Nonostante questo si può ritenere che le tecniche di attività di SEO e quelle di SEM non differiscono in modo basilare, bensì hanno numerosi punti in comune.

La caratteristica saliente che li differenzia è solamente l´investimento monetario per il SEM e la “gratuità” delle campagne SEO.

L’attività di ottimizzazione per i motori di ricerca comprende varie operazioni tecniche che vengono effettuate sul codice HTML (incluso il markup) e sui contenuti delle pagine web del sito, nonché sulla struttura ipertestuale complessiva (tecnologie di interazione comprese).

Indispensabile è anche l’attività esterna al sito, solitamente effettuata con tecniche di link building, diffusione di comunicati stampa e campagne di article marketing di qualità.

La figura professionale specializzata in ottimizzazione è il SEO (search engine optimizer, ottimizzatore per i motori di ricerca – che ha il medesimo acronimo dell’attività che svolge).

In siti di dimensioni elevate, o particolarmente complessi, il SEO resta in stretto contatto con il team di lavoro, necessitando a seconda degli elementi trattati di specifiche professionalità che difficilmente possono ricadere in una singola persona.

L’ottimizzazione di un sito è funzionale al suo posizionamento nelle pagine di risposta dei motori, che a sua volta è funzionale alla visibilità dei prodotti/servizi venduti.

Pratiche per l’ottimizzazione delle pagine

Per quanto riguarda la struttura HTML, parte dell’ottimizzazione consiste nel:

  • Inserire i contenuti importanti all’inizio del codice HTML;
  • Usare I tag HTML il più possibile attinenti alla struttura dei contenuti presentati (semantico) e verificare sempre che il codice delle pagine sia formalmente valido. Può essere utile confrontarsi con le specifiche WCAG per rendere i contenuti meglio “accessibili” anche per i crawler;
  • Differenziare opportunamente i titoli delle varie pagine di un sito, renderli chiari e coerenti con il contenuto della pagina: dovrebbero contenere le parole chiave di maggior peso;
  • Evitare di inviare informazioni incontrollate o inutili (potenzialmente dannose) tramite tag <meta>: i browser le ignorano, i crawler no;
  • Evitare l’utilizzo di JavaScript per gestire la navigazione, perché il crawler non interpreta gli script e non seguirà questi collegamenti. Usare invece collegamenti standard inserendo tag <a> con l’attributo <href>. I browser delle ultime generazioni non avranno problemi a gestire link contenenti sia un indirizzo in href che una chiamata a JavaScript in un gestore di evento onClick: se quest’ultima è ritenuta indispensabile, è possibile inserirla ed essa verrà eseguita invece del collegamento vero e proprio. È importante ricordarsi di inserire comunque anche il collegamento tramite l’attributo href, a beneficio di browser non standard, browser accessibili, e crawler.

Riguardo alla gestione del server e degli URL, invece:

  • Possibilmente, scegliere anche l’URL della pagina in modo che contenga le parole chiave più probabili, ovvero che sia descrittivo e possibilmente somigliante al titolo della pagina stessa;
  • Evitare se possibile l’invio di parametri per un’eventuale applicazione lato server tramite l’inserimento di un’interrogazione (query) nell’URL della pagina, ossia la presenza di coppie parametro=valore dopo un punto di domanda, dopo l’indirizzo della pagina (http://www.sito.it/percorso/pagina?parametro=valore). Alcuni motori di ricerca scaricheranno e indicizzeranno solo la pagina base, senza tener conto della query;
    • inoltre, se l’interrogazione contiene informazioni specifiche sulla sessione (per esempio Session ID, che cambiano per ogni visitatore) nemmeno Google ottiene un URL univoco per la pagina, e può trarne le più disparate conclusioni negative. Per questo tipo di informazioni è opportuno usare i cookie;
  • Evitare l’utilizzo di redirect non HTTP (attraverso tag <meta http-equiv=”refresh”>), perché non è detto che il motore di ricerca li segua. È anche diffusa l’idea che la loro presenza possa penalizzare il Link Analysis Ranking di una pagina. Attuare invece ogni redirezione con una risposta HTTP di reindirizzamento (codici 3xx); inoltre, ogni redirezione effettuata tramite tag <meta http-equiv=”refresh”> è contraria ai paragrafi 7.4 e 7.5 delle WCAG 1.0;
  • Evitare se possibile di servire contenuti differenziati ai crawler (Cloaking) tentando di riconoscerne la stringa di User agent o l’IP del bot che scansiona le nostre pagine.
    È una pratica potenzialmente dannosa che espone (in casi estremi) al rischio concreto di cancellazione dagli indici dei motori e nella maggior parte degli altri casi ad una mancata valorizzazione delle pagine interne di un sito; qualora questo non fosse possibile per ragioni tecniche (per esempio fornire dei contenuti statici di un sito realizzato interamente in Flash), ma fosse necessario implementare una staticizzazione dei contenuti, è preferibile gestirla client-side, mediante l’uso di cookie di sessione.
  • Implementare i file robots.txt e sitemap.xml per indicare ai crawler dei motori di ricerca quali contenuti indicizzare e quali escludere dal processo di indicizzazione.

L’ottimizzazione per Google

Nei primi anni Duemila il celeberrimo motore di ricerca Google ha introdotto un elemento di novità nell’approccio al problema dell’indicizzazione del web, il PageRank, unalgoritmo di valutazione della rilevanza di una pagina basato su concetti matematici.

Nel decennio successivo questo valore ha perso progressivamente importanza. Oggi è considerato uno dei tanti parametri di cui tener conto (e non il più importante).

Robert Metcalfe (inventore di Ethernet), ha definito tale algoritmo come “l’effetto della rete” (network effect): una rete è tanto più utile quanto più elevato è il numero dei suoi utenti.

Google indicizza una pagina basandosi sui suoi contenuti e sui link che puntano ad essa.

Non solo: utilizza anche 200 valori segreti (o almeno lo sono la maggior parte di essi), che interagiscono mediante l’algoritmo di Google per definire la qualità e vari altri fattori contenuti nei siti (e nei blog, oltre che nei servizi utili nel web).

Nelle varie informazioni che è necessario conoscere per arrivare nelle vette dell’ottimizzazione per Google è necessario che il proprio sito possa essere SEO friendly, ovvero che possa essere riconosciuto come sito o blog facilitato per quanto riguarda la lettura dei bot dei motori di ricerca.

Ciò avviene prestando particolare cura a molti degli elementi che si trovano in ogni pagina di un sito web, e di ogni documento caricato sul web.

Ottimizzazione delle immagini

La ricerca per immagini è il secondo tipo di ricerca effettuato su Google.

Per fare in modo che anche le immagini siano indicizzate e ricercabili dai motori di ricerca, l’immagine deve avere una url che descrive il contenuto dell’immagine stessa (es: /images/mobile_rosso.jpg).

Ci deve essere un ALT TAG di descrizione (quello che appare come descrittivo dell’immagine).

Altre informazioni possono essere introdotte in TITLE e in Caption (una tabella che ha lo scopo di descrivere l’immagine e viene utilizzata dai principali cms).

Le principali web app specifiche sulle immagini sono in grado di configurare questi campi utilizzando i relativi campi EXIF.

Ottimizzazione per file PDF

L’ottimizzazione dei documenti in formato PDF prevede alcuni interventi al momento della creazione del file.

Gli elementi più importanti da compilare correttamente ai fini del posizionamento sulle SERP di un documento PDF sono:

  • il nome del file, se è composto da più chiavi utilizzare il trattino per separarle; ad esempio, se il file PDF parla di animali domestici utilizzeremo il seguente nome file: animali-domestici.pdf
  • le proprietà interne al documento: cliccare su “File” – “Proprietà” e compilare necessariamente “Titolo”, “Oggetto” (che sarebbe la description), “Autore” (potete mettere il nome del sito) e “Parole chiave”.
  • Il titolo all’interno del documento: se il documento non dovesse avere un titolo, sarà Google ad attribuirne uno. Meglio, quindi, indicare il titolo che si vuole dare al documento utilizzando per il font: Verdana, Italico e Centrato.

Per quanto riguarda l’inserimento di un link cliccabile all’interno delle pagine, si noti che un file pdf viene letto da Google come una sorta di pagina web a sé stante e risulta, pertanto, un backlink al proprio sito.

L’importante è tematizzare il link, cioè inserire l’esatta pagina di riferimento.

Per esempio, se abbiamo un PDF che parla di animali domestici su un portale di animali, sarà meglio inserire il link alla pagina che parla esattamente di quelli domestici.

fonte : Wikipedia

Un sistema operativo (abbreviato in SO, in lingua inglese OS, “operating system”), in informatica, è un insieme di componenti software, che garantisce l’operatività di base di un calcolatore, coordinando e gestendo le risorse hardware di processamento (processore) e memorizzazione (memoria primaria), le periferiche, le risorse/attività software (processi) e facendo da interfaccia con l’utente, senza il quale quindi non sarebbe possibile l’utilizzo del computer stesso e dei programmi/software specifici, come applicazioni o librerie software.

Esempi di sistemi operativi sono il DOS, Windows, Unix, le distribuzioni GNU/Linux, Mac OS.

Caratteristiche generali

È dunque un componente essenziale del sistema di elaborazione che funge da “base” al quale si appoggiano gli altri software, che dunque dovranno essere progettati e realizzati in modo da essere riconosciuti e supportati da quel particolare sistema operativo.

Assieme al processore, con cui è strettamente legato, costituisce la cosiddetta piattaforma del sistema di elaborazione.

Funzioni principali

Secondo una definizione più rigorosa, il sistema operativo è un insieme di subroutine e strutture dati responsabili:

  • del controllo e della gestione delle componenti hardware che costituiscono il computer (processi di input/output da e verso le periferiche collegate al sistema)
  • dell’esecuzione dei programmi (processi) che su di esso vengono eseguiti, assegnando ad essi le necessarie risorse di processamento.

Se il sistema di elaborazione prevede la possibilità di memorizzazione aggiuntiva dei dati su memoria di massa, come accade nei computer general purpose, esso ha anche il compito di:

  • gestire l’archiviazione e l’accesso ai file. I programmi possono gestire l’archiviazione dei dati su memoria di massa (ottenendo strutture complesse, come un database), servendosi delle procedure messe a disposizione del sistema operativo. La componente del SO che si occupa di tutto ciò viene chiamata file system.

Infine, se è prevista interazione con l’utente, viene solitamente utilizzata allo scopo un’interfaccia software (grafica o testuale) per accedere alle risorse hardware (dischi, memoria, I/O in generale) del sistema.

D’altra parte, un sistema operativo può essere utilizzato anche su una macchina che non preveda interazione diretta con un essere umano (per un esempio, vedi smart card o determinati sistemi embedded) spesso dunque più leggero e semplificato.

Solitamente un sistema operativo installato su computer fornisce anche degli applicativi di base per svolgere elaborazioni di diverso tipo.

Sebbene molte delle funzionalità sopraddette non siano spesso immediatamente visibili/percepibili dall’utente, l’importanza del sistema operativo di un calcolatore è cruciale: oltre alla necessità di gestione delle funzionalità di base sopraddette, al di là delle prestazioni massime offerte dall’hardware dell’elaboratore stesso, il sistema operativo determina di fatto efficienza e buona parte delle prestazioni effettive di funzionamento dell’intero sistema ad esempio in termini di latenze di processamento, stabilità, interruzioni o crash di sistema.

Hai bisogno di attivare Windows?


Licenza Windows 10
Licenza Windows 10 Professional

Struttura

Un generico sistema operativo moderno si compone di alcune parti standard, più o meno ben definite.

Il kernel

Un gruppo di funzioni fondamentali, strettamente interconnesse fra loro e con l’hardware, che vengono eseguite con il privilegio massimo disponibile sulla macchina ossia in modalità kernel; il kernel fornisce le funzionalità di base per tutte le altre componenti del sistema operativo, che assolvono le loro funzioni servendosi dei servizi che esso offre.

A seconda del tipo di sistema operativo il kernel può inglobare altre parti (kernel classico, monolitico o modulare) o fornire solo funzioni base delegando più funzioni possibile a oggetti/gestori esterni (microkernel).

Un sistema di gestione di memoria primaria

che alloca la memoria primaria richiesta dai programmi e dal sistema operativo stesso, salva sulla memoria di massa le zone di memoria temporaneamente non usate dai programmi (memoria virtuale) e garantisce che le pagine swappate vengano riportate in memoria se richieste.

Uno scheduler

che scandisce il tempo di esecuzione dei vari processi e assicura che ciascuno di essi venga eseguito per il tempo richiesto.

Normalmente lo scheduler gestisce anche lo stato dei processi e può sospenderne l’esecuzione nel caso questi siano in attesa senza fare nulla (esempio classico è la richiesta di dati da disco).

Nei sistemi operativi realtime lo scheduler si occupa anche di garantire una timeline, cioè un tempo massimo di completamento per ciascun task in esecuzione, ed è notevolmente più complesso.

Il gestore di file system

si occupa di esaudire le richieste di accesso alle memorie di massa.

Viene utilizzato ogni volta che si accede a un file sul disco, e oltre a fornire i dati richiesti tiene traccia dei file aperti, dei permessi di accesso ai file.

Inoltre si occupa anche e soprattutto dell’astrazione logica dei dati memorizzati sul computer (directory, ecc).

Uno spooler

che riceve dai programmi i dati da stampare e li stampa in successione, permettendo ai programmi di proseguire senza dover attendere la fine del processo di stampa.

Una interfaccia utente (Shell)

che permette agli utenti di interagire con la macchina.

A seconda dei casi, un particolare sistema operativo può avere tutti questi componenti o solo alcuni.

Una ulteriore differenza fra i sistemi operativi è data dal tipo di comunicazione fra le varie componenti: i sistemi operativi classici sono basati su chiamate dirette di funzioni, mentre molti sistemi operativi moderni, soprattutto quelli che adottano microkernel, si basano sul message passing, sullo scambio di messaggi fra le loro varie parti e fra il sistema operativo e i programmi che fa girare.

Vediamo ora alcune classi di sistemi operativi possibili, dal più semplice al più complesso.

Shell

Il secondo passo verso una migliore gestione del computer si ha con lo sviluppo di una interfaccia utente separata dal kernel, un interprete di comandi che funzioni anche da interfaccia utente ovvero da shell.

Questa shell primitiva di solito funge anche da interprete per un linguaggio di programmazione: a seconda delle scelte dei progettisti del software può essere un vero linguaggio oppure un più semplice linguaggio di scripting con cui creare comandi batch.

Era il tipico sistema operativo degli home computer degli anni 80, come il Commodore 64 e il Sinclair ZX Spectrum.

DOS

Un computer diventa molto più utile ed efficace se dotato di una memoria di massa: per gestirla serve un gestore di file system, cioè un software che in sintesi è composto da un insieme di funzioni che permetta di organizzare e gestire (accesso o lettura, scrittura o memorizzazione, ordinamento) i dati sulla superficie dei mezzi di memorizzazione secondo una struttura ben precisa.

I sistemi operativi che risiedevano su disco e capaci di gestire un file system sono detti genericamente Disk Operating System, cioè DOS appunto.

L’esemplare più famoso è senz’altro l’MS-DOS di Microsoft, oggi non più in uso, ma che era alla base dei sistemi operativi Windows 95/98/Me.

Ne esiste anche una versione libera compatibile con i suoi programmi, il FreeDOS, ed altre versioni come il DR-DOS.

Scheduler

I programmi non hanno sempre realmente bisogno della CPU: a volte, invece di eseguire istruzioni, stanno aspettando che arrivino dei dati da un file, o che l’utente prema un tasto della tastiera.

Quindi si può, in linea di principio, usare questi tempi “morti” per far eseguire un altro programma.

Questa idea, sorta fin dai primi anni cinquanta, si concretizzò nei sistemi operativi multitasking, cioè dotati di uno scheduler che manda in esecuzione più processi (esecuzioni di programmi), assegnando a turno la CPU a ognuno e sospendendo l’esecuzione dei programmi in attesa di un evento esterno (lettura/scrittura sulle memorie di massa, stampa, input utente ecc.) finché questo non si verifica.

Dovendo ospitare in memoria centrale più programmi nello stesso tempo, i sistemi multitask hanno bisogno di più memoria rispetto a quelli monotask: perciò questo tipo di sistemi operativi è quasi sempre dotato di un gestore di memoria virtuale.

Inoltre, con più programmi simultaneamente attivi, il controllo delle risorse hardware diventa una reale necessità e non è più possibile farne a meno.

Esistono sostanzialmente due modi di implementare il multitasking: cooperative e preemptive multitasking.

Nel primo sono i programmi che, spontaneamente, cedono il controllo al sistema non appena hanno terminato la singola operazione in corso; nel secondo è lo scheduler che ferma i programmi allo scadere del tempo assegnato e trasferisce il controllo dall’uno all’altro.

  • Il cooperative multitasking assorbe meno risorse di calcolo e non ha (quasi) ritardo di commutazione per il cambio di task, e inoltre non richiede nessuna struttura hardware dedicata, il che rende possibile implementarlo su qualunque calcolatore; per contro è molto vulnerabile a errori nei programmi (in genere il crash di un programma fa cadere l’intero sistema) e l’isolamento fra processi è molto debole. È il modello utilizzato da Mac OS 9, Windows 3.0 e precedenti.
  • Il preemptive multitasking necessita di CPU che implementino in hardware sia dei livelli di privilegio per l’esecuzione del codice, sia una logica specifica per il context switch, il cambio di task eseguito dallo scheduler. Poiché l’interruzione dei programmi è arbitraria, al cambio di task il sistema operativo è costretto a salvare tutti o quasi i registri della CPU e ricaricarli con quelli salvati dal task che subentra, perdendo molto tempo. A fronte di queste maggiori richieste, il preemptive multitasking offre una sicurezza del sistema molto maggiore e una (virtuale) immunità ai crash di sistema causati da errori nei programmi. È il modello utilizzato dai moderni sistemi operativi.

Multitasking

Se un computer può far girare più programmi contemporaneamente, allora può anche accettare comandi da più utenti contemporaneamente: in effetti dal multitasking alla multiutenza o timesharing il passo è tecnicamente molto breve, ma fa sorgere una serie di nuovi problemi dal punto di vista della sicurezza dei sistemi operativi: come distinguere i vari utenti tra loro, come accertarsi che nessun utente possa causare danni agli altri o alla macchina che sta usando.

Questi problemi di sicurezza informatica si risolvono assegnando un account univoco per ciascun utente, assegnando un proprietario ai file ed ai programmi e gestendo un sistema di permessi per l’accesso ad essi, e prevedendo una gerarchia di utenti (cioè di account) per cui il sistema rifiuterà tutti i comandi potenzialmente “pericolosi” e li accetterà soltanto se impartiti da un utente in cima alla gerarchia, che è l’amministratore del sistema (generalmente l’account root nei sistemi Unix, Administrator nei sistemi Windows).

Sistema operativo on-line

Mediante opportuni software, il sistema operativo può avere la funzionalità di desktop remoto, che consente tramite una connessione internet l’accesso al proprio elaboratore e a tutti gli applicativi e dati salvati in uno specifico momento.

Tramite accesso remoto sono possibili le stesse operazioni che si possono fare stando davanti al proprio elaboratore.

L’accesso è protetto da user e password che possono essere al limite condivisi da una comunità di utenti. In questo caso, il desktop remoto è un’evoluzione della tradizionale cartella condivisa.

La cartella condivisa già permetteva la comunicazione di qualsiasi file, dunque anche di eseguibili, installabili da remoto in locale, oltreché di dati.

Sistemi operativi real-time

Un sistema operativo real-time è un particolare tipo di sistema operativo, in grado di garantire una risposta entro un dato tempo limite (millisecondi o microsecondi) a qualunque evento esterno.

Questo requisito porta a una diversa struttura del sistema: per esempio i sistemi realtime usano spesso il polling (meno efficiente, ma deterministico) invece degli interrupt per gestire le periferiche, e non hanno memoria virtuale.

I sistemi realtime si trovano spesso in ambito industriale, musicale o comunque dove sia necessario ottenere una risposta dal sistema in un tempo massimo prefissato.

A loro volta i sistemi realtime si possono dividere in due categorie: hard e soft, a seconda dei tempi di risposta; un PC che faccia girare un gioco in 3D, per esempio, può essere considerato un sistema “soft-realtime”.

Parti del sistema operativo

Kernel

Il kernel è il motore di un sistema operativo. Si tratta di un software che ha il compito di fornire ai moduli che compongono il sistema operativo e ai programmi in esecuzione sul computer le funzioni fondamentali ed un accesso controllato all’hardware, sollevandoli dai dettagli della sua gestione.

Quali funzioni sia opportuno che il kernel debba fornire e quali possano essere demandate a moduli esterni è oggetto di opinioni divergenti: se il kernel di un sistema operativo implementa soltanto un numero molto ristretto di funzioni, delegando il resto ad altre parti esterne dette server o moduli in comunicazione con il kernel stesso, si parla di microkernel.

Il vantaggio di un siffatto sistema operativo è la maggiore semplicità del suo kernel, del suo sviluppo, la possibilità di cambiare facilmente i moduli ed una certa tolleranza ai guasti in quanto se un modulo “crolla” (crash) non “crolla” tutto il sistema; lo svantaggio è invece l’interazione più complessa e costosa fra kernel e le altre componenti del S.O. stesso, che spesso rallenta il sistema e/o lo rende meno stabile.

Un kernel tradizionale, ovvero monolitico e altri, integra invece dentro di sé la gestione della memoria virtuale, lo scheduler e i gestori di file system, nonché i driver necessari per il controllo di tutte le periferiche collegate.

Questo tipo di kernel è più complesso da progettare, mantenere ed aggiornare, ma è anche più veloce, efficiente e stabile.

Una sua evoluzione è costituita dai kernel “modulari“, che mantengono al loro interno lo scheduler e i gestori di file system e memoria virtuale ma separano alcune funzioni non essenziali in moduli a sé stanti, da caricare in memoria solo in caso di effettivo uso della funzione o periferica di loro competenza.

Sulla distinzione fra microkernel e kernel monolitico di notevole interesse è il famoso dibattito fra Torvalds e Tanenbaum “LINUX is obsolete” che potete trovare su comp.os.minix al seguentecollegamento

File system

Il file system è il modo in cui i file sono immagazzinati e organizzati su un dispositivo di archiviazione, come un hard disk o un CD-ROM.

Esistono molti tipi di file system, creati per diversi sistemi operativi, per diverse unità di memorizzazione e per diversi usi.

Si possono identificare due grandi classi di file system: quelli per unità locali, destinate ad organizzare fisicamente i dati su un disco, e i file system distribuiti, nati per condividere i dati fra più computer collegati attraverso una rete, superando le differenze fra sistemi operativi e filesystem locali delle varie macchine.

Filesystem per unità locali

Filesystem

  • Amiga FileSystem
  • Caching File System (CFS)
  • Ext2
  • Ext3
  • Ext4
  • File Allocation Table (FAT)
  • FAT 32
  • HFS
  • HFS Plus
  • HPFS
  • ISO 9660
  • Journaled File System (JFS)
  • Minix
  • NTFS
  • ReiserFS
  • Unix File System (UFS)
  • XFS
  • ZFS
  • Swap

Filesystem distribuiti

  • Network File System (NFS)
  • Coda
  • Andrew file system (AFS)

Scheduler

Lo scheduler è il componente fondamentale dei sistemi operativi multitasking, cioè quelli in grado di eseguire più processi (task) contemporaneamente (va inteso simbolicamente.

In realtà non c’è una gestione parallela dei processi ma avviene in sequenza, i tempi sono talmente brevi che all’ utente sembrerà che i programmi vadano contemporaneamente).

Lo scheduler si occupa di fare avanzare un processo interrompendone temporaneamente un altro, realizzando così un cambiamento di contesto (context switch).

Generalmente computer con un processore sono in grado di eseguire un programma per volta, quindi per poter far convivere più task è necessario usare lo scheduler.

Esistono vari algoritmi di scheduling che permettono di scegliere nella maniera più efficiente possibile quale task far proseguire.

I migliori scheduler hanno di complessità O(1).

Gestione Input/Output e periferiche

La gestione dell’Input/Output ovvero delle periferiche di sistema è attuata attraverso il meccanismo dell’interrupt da parte delle periferiche stesse che chiamano in causa il sistema operativo il quale opererà un cambiamento di contesto (context switch) all’interno del ciclo del processore assegnando al processore il compito di Input/Output richiesto.

Un’altra modalità tipica di gestione delle periferiche, alternativa agli interrupt, è il polling.

Gestore di memoria

Il gestore di memoria è la componente del sistema operativo che si occupa di gestire ed assegnare la memoria primaria ai processi che ne fanno richiesta immediatamente prima dell’elaborazione.

La gestione della memoria è necessaria anche per tenere traccia di quanta memoria è impegnata e di quanta invece è disponibile per soddisfare nuove richieste: in mancanza di un sistema di gestione, si avrebbe prima o poi il caso nefasto di processi che ne sovrascrivono altri, con gli ovvi inconvenienti.

Un altro buon motivo per registrare la memoria usata dai vari processi è il fatto che, in caso di errori gravi, i processi possono andare in crash e non essere più in grado di comunicare al sistema che la memoria che occupano può essere liberata: in questo caso è compito del gestore di memoria, dopo la terminazione anomala del processo, marcare come libere le zone di memoria possedute dal processo “defunto”, rendendole disponibili per nuove allocazioni.

Per poter gestire i programmi, divenuti processi, è necessario che tutti gli indirizzi definiti in essi siano calcolati in forma relativa alla prima istruzione del programma (come se il programma dovesse essere caricato a partire dall’indirizzo 0 di memoria centrale.)

Al momento del caricamento, che può essere eseguito in qualsiasi zona libera della memoria, gli indirizzi relativi verranno sommati al primo indirizzo di effettivo caricamento, diventando così assoluti: INDIRIZZO ASSOLUTO = INDIRIZZO RELATIVO + INDIRIZZO DI PARTENZA.

Una modalità/meccanismo tipico di gestione/assegnazione della memoria ai programmi/processi da parte del sistema operativo è il paging.

Gestore di memoria virtuale

Nel caso il sistema disponga di un meccanismo di memoria virtuale, il gestore della memoria si occupa anche di mappare (indirizzare) la memoria virtuale offerta ai programmi sulla memoria fisica e sui dischi rigidi del sistema, copiando da memoria a disco rigido e viceversa le parti di memoria necessarie di volta in volta ai programmi, senza che i programmi stessi o gli utenti debbano preoccuparsi di nulla.

Protezione della memoria

La protezione della memoria è un sistema per prevenire la corruzione della memoria di un processo da parte di un altro.

Di solito è gestito via hardware (ad esempio con una MMU, Memory management unit) e dal sistema operativo per allocare spazi di memoria distinti a processi differenti.

Interfaccia utente

Si tratta di un programma che permette all’utente di interagire con il computer.

Esistono sostanzialmente due famiglie di interfacce utente: interfaccia a riga di comando e interfacce grafiche (GUI) come ad esempio il desktop.

Spooler di stampa

Lo spooler di stampa è stato storicamente il primo modulo esterno del sistema operativo ad essere implementato, per risolvere il problema della gestione delle stampe su carta.

Infatti, essendo le stampanti elettromeccaniche dei dispositivi molto lenti, i primi programmi per elaboratore dovevano necessariamente sprecare molto tempo di CPU, estremamente prezioso all’epoca, per controllare la stampante ed inviarle i dati.

Quindi venne ideato un programma separato, che girava con una priorità molto bassa e che era visto dagli altri programmi come una normale stampante: in realtà invece lo spooler accumulava i dati che un programma doveva stampare in una apposita area di memoria RAM, e poi si faceva carico del processo di stampa vero e proprio lasciando gli altri programmi liberi di continuare la loro esecuzione.

Il meccanismo fondamentale dello spooler di stampa è rimasto sostanzialmente invariato dai suoi albori fino ad oggi: con gli anni e con il progredire della tecnologia le modifiche più rilevanti sono state la capacità di gestire più stampanti selezionabili a piacere, e la capacità di gestire anche stampanti remote, collegate cioè non direttamente al computer su cui gira lo spooler ma ad altri elaboratori connessi via rete.

I sistemi distribuiti in rete

Tra le varie ipotesi d’uso di un sistema operativo c’è anche la possibilità di gestione di un sistema distribuito in rete. In tal caso la computazione viene distribuita tra più computer collegati in rete tra loro.

In questo modo le risorse e il carico computazionale vengono condivise e bilanciate, ottenendo una maggiore affidabilità e costi più contenuti nella scalabilità.

Una configurazione funzionalmente simmetrica permette che tutte le macchine componenti abbiano lo stesso ruolo nel funzionamento del sistema e lo stesso grado di autonomia.

Una approssimazione pratica di questa configurazione è il clustering.

Il sistema viene suddiviso in cluster semiautonomi, dove ognuno di essi, a sua volta, è costituito da un insieme di macchine e da un server cluster dedicato.

Installazione e avvio

Tipicamente il sistema operativo, una volta installato sulla macchina, risiede in memoria secondaria pronto ad essere caricato in memoria primaria durante la fase di avvio della macchina.

Dual Boot

Tipicamente più sistemi operativi possono essere installati sulla stessa macchina in modalità dual boot, selezionando poi il sistema prescelto/desiderato nella fase di avvio del PC attraverso il boot manager.

Tutto ciò è possibile solo in virtù dell’operazione di partizionamento della memoria secondaria (hard disk) in più settori logici indipendenti dove ciascuno può ospitare un diverso sistema.

Caricamento/avvio

All’accensione del computer il BIOS, dopo la fase/operazioni di POST, esegue nella cosiddetta fase di boot, attraverso il boot loader, il caricamento del kernel del sistema operativo dalla memoria di massa/memoria secondaria (hard disk) alla memoria primaria (RAM), come qualunque programma, pronto ad essere eseguito dal processore, rendendo la macchina pronta all’uso da parte dell’utente.

Nel caso di sistemi operativi ad interazione con l’utente questa fase tipicamente comporta anche il caricamento di tutte le impostazioni di configurazione (settings) e personalizzazione dell’utente (profilo utente) (es. profilo utente di Windows).

fonte : Wikipedia – Sistema operativo


Ti consiglio questi libri sui Sitemi Operativi

UTILIZZATI ANCHE NELLE UNIVERSITÀ!

Sistemi Operativi - Concetti ed esempi - Decima edizione
Sistemi Operativi
Reti di calcolatori e Internet - Un approccio top-down - Settima edizione
Reti di calcolatori e Internet
Sistemi di basi di dati - Fondamenti e complementi - Settima edizione
Sistemi di basi di dati

Con il termine sicurezza informatica si intende quel ramo dell’informatica che si occupa dell’analisi delle vulnerabilità, del rischio, delle minacce o attacchi e della successiva protezione dell’integrità fisica (hardware) e logico-funzionale (software) di un sistema informatico e dei dati in esso contenuti o scambiati in una comunicazione con un utente.

Tale protezione è ottenuta attraverso misure di carattere tecnico-organizzativo e funzionali tese ad assicurarne:

  • l’accesso fisico e/o logico solo ad utenti autorizzati (autenticazione);
  • la fruizione di tutti e soli i servizi previsti per quell’utente nei tempi e nelle modalità previste dal sistema (disponibilità);
  • la correttezza dei dati (integrità);
  • l’oscuramento dei dati (cifratura);
  • la protezione del sistema da attacchi di software malevoli per garantire i precedenti requisiti.

Generalità

La sicurezza informatica è un problema sempre più sentito in ambito tecnico-informatico per via della crescente informatizzazione della società e dei servizi (pubblici e privati) in termini di apparati e sistemi informatici e della parallela diffusione e specializzazione degli attaccanti o hacker.

L’interesse per la sicurezza dei sistemi informatici è dunque cresciuto negli ultimi anni proporzionalmente alla loro diffusione ed al loro ruolo occupato nella collettività.

Molti ex-hacker/cracker sono oggi dirigenti di società di sicurezza informatica o responsabili di questa in grandi multinazionali.

Ciò sembra mostrare che per capire le strategie migliori di sicurezza informatica è necessario entrare nella mentalità dell’attaccante per poterne prevedere ed ostacolare le mosse.

Il raggiungimento della disponibilità dipende da diversi fattori che interferiscono tra utente e sistema, quali: robustezza del software di base e applicativo,affidabilità delle apparecchiature e degli ambienti in cui essi sono collocati.

Il sistema informatico deve essere in grado di impedire l’alterazione diretta o indiretta delle informazioni, sia da parte di utenti non autorizzati, sia da eventi accidentali; inoltre deve impedire l’accesso abusivo ai dati.

“In generale non è buona norma assumere che le contromisure adottate in un sistema siano sufficienti a scongiurare qualsiasi attacco”.

La protezione dagli attacchi informatici viene ottenuta agendo su più livelli: innanzitutto a livello fisico e materiale, ponendo i server in luoghi il più possibile sicuri, dotati di sorveglianza e/o di controllo degli accessi; anche se questo accorgimento fa parte della sicurezza normale e non della “sicurezza informatica” è sempre il caso di far notare come spesso il fatto di adottare le tecniche più sofisticate generi un falso senso di sicurezza che può portare a trascurare quelle semplici.

Il secondo livello è normalmente quello logico che prevede l’autenticazione e l’autorizzazione di un’entità che rappresenta l’utente nel sistema.

Successivamente al processo di autenticazione, le operazioni effettuate dall’utente sono tracciate in file di log. Questo processo di monitoraggio delle attività è detto audit o accountability.

Per evitare invece gli eventi accidentali, non esistono soluzioni generali, ma di solito è buon senso dell’utente fare una copia di backup del sistema, fare backup periodico di dati e applicazioni in modo da poter fronteggiare qualsiasi danno imprevisto.

Analisi del rischio

La cosiddetta analisi del rischio, ovvero la valutazione di tutte le possibili minacce in termini di probabilità di occorrenza e relativo danno potenziale, tipicamente precede la fase di messa in sicurezza del sistema informatico, consentendo così di stimare il relativo rischio: in base a tale valore si decide se, come e quali contromisure di sicurezza adottare.

Tipi di sicurezza informatica

Proprio sulla base di queste osservazioni, quando si parla di “sicurezza informatica” spesso si distinguono i concetti di sicurezza passiva e di sicurezza attiva.

Sicurezza passiva

Per sicurezza passiva normalmente si intendono le tecniche e gli strumenti di tipo difensivo, ossia quel complesso di soluzioni tecnico-pratiche il cui obiettivo è quello di impedire che utenti non autorizzati possano accedere a risorse, sistemi, impianti, informazioni e dati di natura riservata.

Il concetto di sicurezza passiva pertanto è molto generale: ad esempio, per l’accesso fisico a locali protetti, l’utilizzo di porte di accesso blindate, congiuntamente all’impiego di sistemi di identificazione personale, sono da considerarsi componenti di sicurezza passiva.

Sicurezza attiva

Per sicurezza attiva si intendono, invece, tutte quelle tecniche e gli strumenti mediante i quali le informazioni ed i dati di natura riservata sono resi intrinsecamente sicuri, proteggendo gli stessi sia dalla possibilità che un utente non autorizzato possa accedervi (confidenzialità), sia dalla possibilità che un utente non autorizzato possa modificarli (integrità).

È evidente che la sicurezza passiva e quella attiva siano tra loro complementari ed entrambe indispensabili per raggiungere il desiderato livello di sicurezza di un sistema.

Le possibili tecniche di attacco sono molteplici, perciò è necessario usare contemporaneamente diverse tecniche difensive per proteggere un sistema informatico, realizzando più barriere fra l’attaccante e l’obiettivo.

Spesso l’obiettivo dell’attaccante non è rappresentato dai sistemi informatici in sé, quanto piuttosto dai dati in essi contenuti, quindi la sicurezza informatica deve preoccuparsi di impedire l’accesso ad utenti non autorizzati, ma anche a soggetti con autorizzazione limitata a certe operazioni, per evitare che i dati appartenenti al sistema informatico vengano copiati, modificati o cancellati.

Le violazioni possono essere molteplici: vi possono essere tentativi non autorizzati di accesso a zone riservate, furto di identità digitale o di file riservati, utilizzo di risorse che l’utente non dovrebbe potere utilizzare ecc.

La sicurezza informatica si occupa anche di prevenire eventuali situazioni di Denial of service (DoS).

I DoS sono attacchi sferrati al sistema con l’obiettivo di renderne inutilizzabili alcune risorse in modo da danneggiare gli utenti del sistema. Per prevenire le violazioni si utilizzano strumenti hardware e software.

Sicurezza nelle aziende

Dal momento che l’informazione è un bene che aggiunge valore all’impresa, e che ormai la maggior parte delle informazioni sono custodite su supporti informatici, ogni organizzazione deve essere in grado di garantire la sicurezza dei propri dati, in un contesto dove i rischi informatici causati dalle violazioni dei sistemi di sicurezza sono in continuo aumento.

Per questo esistono, a carico delle imprese, precisi obblighi in materia di privacy, tra cui quello di redigere annualmente uno specifico documento programmatico sulla sicurezza.

È stato anche approvato a livello internazionale il nuovo Standard ISO 27001:2005 finalizzato alla standardizzazione delle modalità adatte a proteggere i dati e le informazioni da minacce di ogni tipo, al fine di assicurarne l’integrità, la riservatezza e la disponibilità.

Lo standard indica i requisiti di un adeguato sistema di gestione della sicurezza delle informazioni (ISMS) finalizzato ad una corretta gestione dei dati dell’azienda.

Una fase indispensabile di ogni pianificazione della sicurezza è la valutazione del rischio e la gestione del rischio. Il CLUSIT è l’associazione nazionale che promuove la conoscenza nelle aziende.

Sicurezza-Informatica

Sicurezza informatica dei dati

Parametri di protezione

I principali aspetti di protezione del dato sono:

  • la disponibilità.
  • l’integrità dei dati;
  • la confidenzialità (o riservatezza);

Principali cause di perdita di dati

Le cause di probabile perdita di dati nei sistemi informatici possono essere molteplici, ma in genere vengono raggruppate in due eventi:

  • Eventi indesiderati;
  • Eventi accidentali.

Eventi indesiderati

Tra i due eventi sopra citati, quelli indesiderati sono quelli per lo più inaspettati, anche se è prudente aspettarsi di tutto, e sono i cosiddetti attacchi da parte di utenti non autorizzati al trattamento di dati o all’utilizzo di servizi. Alcuni degli eventi indesiderati che si possono subire possono essere:

  • Attacchi malevoli;
  • Uso delle proprie autorizzazioni per l’accesso a sistemi da parte di utenti non autorizzati.
Attacchi malevoli

Gli attacchi malevoli vengono fatti, tramite la rete internet o altra connessione, da parte di utenti remoti che attraverso l’uso di software particolari, a volte creati da loro stessi, si intrufolano abusivamente all’interno del sistema, riuscendo ad ottenere piena disponibilità della macchina, per gestire risorse e dati senza avere i giusti requisiti richiesti.

Accesso a sistemi da parte di utenti non autorizzati

Questo tipo di attacco sostanzialmente è simile al precedente, ma ha una forma diversa. Questo attacco consiste nell’uso non autorizzato di sistemi e di dati altrui, ma a differenza di un attacco malevolo, stavolta viene usata la macchina e non la rete.

Effetti

La pericolosità degli attacchi in quanto tale, consiste non solo nella presa di possesso di requisiti, dati e servizi altrui, ma anche causa all’utente cosiddetto “derubato” una sorta di insicurezza a far fede sui sistemi informatici che spesso fanno parte della nostra vita quotidiana.

Eventi accidentali

Gli eventi accidentali non riguardano attacchi malevoli, ma fanno riferimento a eventi causati accidentalmente dall’utente stesso, tipo: uso difforme dal consigliato di un qualche sistema, incompatibilità di parti hardware, guasti imprevisti, ecc… Tutti eventi che comunque compromettono la sicurezza del sistema soprattutto in termini di disponibilità.

Per far fronte a tali evenienze, specie se derivanti da possibili guasti o danni fisici, molte volte si opera in un contesto di ridondanza degli apparati (es.server cluster) ovvero con sistemi distribuiti all’interno di piani di disaster recovery che, assicurando la tolleranza ai guasti (fault tolerance), garantiscano affidabilità e disponibilità cioè il business continuity del sistema informatico e dell’azienda.

A volte si preferisce agire anche in maniera preventiva tramite piani di disaster prevention.

Sicurezza informatica dei programmi

Il problema della sicurezza dei programmi e soprattutto dell’invio e ricezione di dati confidenziali protetti, si è posto all’attenzione degli sviluppatori disoftware come conseguenza della sensibile crescita dell’uso degli strumenti informatici e di internet.

Per quanto riguarda la produzione di software “protetti” possiamo partire col definire il concetto di sicurezza come l’assenza da condizioni conflittuali capaci di produrre danni mortali o irreparabili ad un sistema.

Nella progettazione di software è quindi fondamentale raggiungere il compromesso più funzionale tra l’efficienza d’uso del programma in questione e la sua capacità di “sopravvivenza” ad attacchi esterni e ad errori più o meno critici.

Caratteristiche di sicurezza informatica

Due caratteristiche fondamentali esplicano il concetto di sicurezza:

  • Safety (sicurezza): una serie di accorgimenti atti ad eliminare la produzione di danni irreparabili all’interno del sistema;
  • Reliability (affidabilità): prevenzione da eventi che possono produrre danni di qualsiasi gravità al sistema.

Un software (o programma) è tanto più sicuro quanto minori sono le probabilità che si verifichi un guasto e la gravità del danno conseguente al guasto stesso.

Possiamo ora vedere, in ordine crescente, i possibili effetti dei guasti in cui può incorrere un software:

  • Nessun effetto
  • Rischio trascurabile
  • Rischio significativo
  • Rischio elevato
  • Rischio catastrofico.

Controllo della sicurezza informatica di un programma

Una volta prodotto il software si procede alla verifica del suo comportamento, in modo tale da effettuare una ricerca estesa dei difetti presenti, per passare poi alla loro eventuale eliminazione.

Esistono diversi modelli di sicurezza per il controllo dei programmi basati su due metodi differenti:

  • Semantic-based security model (modelli di sicurezza basati sulla semantica): la sicurezza del programma controllato viene esaminata in termini di comportamento del programma
  • Security-typed language (modelli di sicurezza basati sul linguaggio): i tipi delle variabili sono seguiti dall’esplicazione delle politiche adottate per l’uso dei dati battuti.

Per essere efficace un programma deve essere controllato nelle sue specifiche e deve essere privo di difetti nel codice, a questo fine viene effettuato un controllo delle specifiche del programma e delle prestazioni correlate all’affidabilità, in secondo luogo viene analizzata ogni parte di codice e funzione del sistema.

Errori di programma

L’IEEE (Institute of Electrical and Electronics Engineers) ha catalogato gli errori nel software in tre diverse voci a seconda della natura degli errori stessi. Esse sono:

  • Error: è un errore umano verificatosi durante il processo di interpretazione delle specifiche oppure durante l’uso di un metodo o nel tentativo di risoluzione di un problema
  • Failure: è un comportamento del software imprevisto ed incongruo rispetto alle specifiche del programma stesso
  • Fault: è un difetto del codice sorgente.

Gli errori di programma non nocivi, come ad esempio gli spyware ed il buffer overflow hanno la caratteristica di non modificare i file di sistema e non recare danno alle caratteristiche del sistema stesso.

Troviamo qui sotto elencati una serie di errori e di attacchi al software di differente entità.

Principali tecniche di attacco

  • Exploit
  • Buffer overflow
  • Shellcode
  • Cracking
  • Backdoor
  • Port scanning
  • Sniffing
  • Keylogging
  • Spoofing
  • Trojan
  • Virus informatici
  • DoS
  • Ingegneria sociale
  • Social Network Poisoning
  • CMD Tramite Browser

Principali tecniche di difesa

  • Antivirus: consente di proteggere il proprio personal computer da software dannosi conosciuti come virus. Un buon antivirus deve essere costantemente aggiornato ad avere in continua esecuzione le funzioni di scansione in tempo reale.
    Per un miglior utilizzo l’utente deve avviare con regolarità la scansione dei dispositivi del PC (dischi fissi, CD, DVD e dischetti floppy), per verificare la presenza di virus, worm.
    Per evitare la diffusione di virus è inoltre utile controllare tutti i file che si ricevono o che vengono spediti tramite posta elettronica facendoli verificare dall’antivirus correttamente configurato a tale scopo.
  • Antispyware: software facilmente reperibile sul web in versione freeware, shareware o a pagamento. È diventato un utilissimo tool per la rimozione di “file spia”, gli spyware appunto, in grado di carpire informazioni riguardanti le attività on line dell’utente ed inviarle ad un’organizzazione che le utilizzerà per trarne profitto.
  • Firewall: installato e ben configurato un firewall garantisce un sistema di controllo degli accessi verificando tutto il traffico che lo attraversa. Protegge contro aggressioni provenienti dall’esterno e blocca eventuali programmi presenti sul computer che tentano di accedere ad internet senza il controllo dell’utente.
  • Firma digitale, Crittografia: è possibile proteggere documenti e dati sensibili da accessi non autorizzati utilizzando meccanismi di sicurezza specifici quali: la crittografia, la firma digitale, e l’utilizzo di certificati digitali e algoritmi crittografici per identificare l’autorità di certificazione, un sito, un soggetto o un software.
  • Backup: più che un sistema di difesa si tratta di un utile sistema per recuperare dati eventualmente persi o danneggiati. Il backup consiste nell’esecuzione di una copia di sicurezza dei dati di un personal computer o comunque di dati considerati importanti onde evitare che vadano perduti o diventino illeggibili.
  • Honeypot: un honeypot (letteralmente: “barattolo del miele”) è un sistema o componente hardware o software usato come “trappola” o “esca” a fini di protezione contro gli attacchi di pirati informatici. Solitamente consiste in un computer o un sito che sembra essere parte della rete e contenere informazioni preziose, ma che in realtà è ben isolato e non ha contenuti sensibili o critici; potrebbe anche essere un file, un record, o un indirizzo IP non utilizzato.
  • Intrusion Detection System (IDS): è un dispositivo software e hardware (a volte la combinazione di tutti e due) utilizzato per identificare accessi non autorizzati ai computer. Le intrusioni rilevate possono essere quelle prodotte da cracker esperti, da tool automatici o da utenti inesperti che utilizzano programmi semiautomatici. Gli IDS vengono utilizzati per rilevare tutti gli attacchi alle reti informatiche e ai computer. Un IDS è composto da quattro componenti. Uno o più sensori utilizzati per ricevere le informazioni dalla rete o dai computer. Una console utilizzata per monitorare lo stato della rete e dei computer e un motore che analizza i dati prelevati dai sensori e provvede a individuare eventuali falle nella sicurezza informatica. Il motore di analisi si appoggia ad un database ove sono memorizzate una serie di regole utilizzate per identificare violazioni della sicurezza.
  • Network Intrusion Detection System (NIDS): sono degli strumenti informatici, software o hardware, dediti ad analizzare il traffico di uno o più segmenti di una LAN al fine di individuare anomalie nei flussi o probabili intrusioni informatiche. I più comuni NIDS sono composti da una o più sonde dislocate sulla rete, che comunicano con un server centralizzato, che in genere si appoggia ad un Database. Fra le attività anomale che possono presentarsi e venire rilevate da un NIDS vi sono: accessi non autorizzati, propagazione di software malevolo, acquisizione abusiva di privilegi appartenenti a soggetti autorizzati, intercettazione del traffico (sniffing), negazioni di servizio (DoS).
  • Steganografia: La steganografia si pone come obiettivo di mantenere nascosta l’esistenza di dati a chi non conosce la chiave atta ad estrarli, mentre per la crittografia è rendere inaccessibili i dati a chi non conosce la chiave.
  • Sistema di autenticazione: potrebbe rivelarsi utile, in particolare nelle aziende, l’utilizzo di software per l’autenticazione sicura con un secondo elemento di autenticazione basato su un insieme di caratteri disposti in uno schema suddiviso in file e colonne conosciute dall’utente che dovrà poi inserirle in una combinazione di valori per dimostrare di essere in possesso dei dati corretti. Altro sistema, più sofisticato, è quello del riconoscimento dell’utente tramite l’utilizzo dell’impronta digitale come forma di autenticazione.

Sicurezza della comunicazione

Un altro filone della sicurezza informatica si occupa delle problematiche di sicurezza connesse alla trasmissione di informazioni confidenziali in rete o su qualunque sistema di telecomunicazioni ovvero protezione dei dati in transito e sugli accessi non autorizzati alla varie risorse e servizi di rete.

In tale ambito sono diffuse tecniche di autenticazione e crittografia come contromisure allo sniffing.

Sicurezza della rete Internet

Con la crescita a dismisura di internet e del “www”, le problematiche di sicurezza si sono estese anche ad essa e servono quindi idee e principi su cui basarsi.

Per far fronte ai rischi che si corrono utilizzandola, l’Unione Europea mette il suo contributo tramite il programma di protezione “Safer Internet”.

Sul fronte tecnico le misure di protezione in rete si concretizzano nell’uso di opportuni protocolli di rete quale HTTPS, SSL, TLS, IPsec e SSH che non fanno altro che applicare i metodi crittografici su uno o più livelli di architettura di rete del modello ISO-OSI.

Safer Internet

L’idea del programma di protezione della rete “Safer Internet”, è nata a seguito della crescita di internet e per la crescente presenza di bambini a contatto con questo mondo.

“Safer Internet” introdotto dal Parlamento Europeo l’11 maggio 2005, vuole promuovere l’uso sicuro di internet soprattutto per i bambini: una rete europea di 21 linee nazionali attraverso le quali gli utenti finali possono denunciare anonimamente la presenza di contenuti illegali su internet, e la creazione di 23 nodi nazionali di sensibilizzazione per promuovere un uso sicuro di internet, rivolto ai bambini, ai genitori e agli insegnanti.

Oltre ai provvedimenti di autoregolamentazione e allo sviluppo di tecnologie adeguate, l’istruzione gioca un ruolo chiave.

È indispensabile, infatti, la partecipazione e l’istruzione di genitori e insegnanti, troppo spesso digiuni in materia di internet, che seguano con costanza i ragazzi nella navigazione, fornendo loro gli strumenti critici necessari per un approccio consapevole alla rete.

Apparati di sicurezza di rete

Una rete locale può aumentare il suo grado di sicurezza da e verso l’esterno (Internet) attraverso l’uso di sistemi come:

  • Firewall;
  • Intrusion detection system (IDS);
  • Intrusion prevention system (IPS).

Certificazione

Prodotti software o sistemi informatici possono essere certificati nei loro attributi di sicurezza, con valore aggiunto sul prodotto o sistema stesso in termini pubblicitari di sicurezza (certificazione di qualità in termini di sicurezza), da organismi competenti riconosciuti.

Tipicamente il processo di certificazione passa attraverso una fase di valutazione del prodotto/sistema (OdV oggetto della valutazione) da parte di un laboratorio di valutazione accreditato, per il quale il committente/sviluppatore dell’operazione ha identificato un cosiddetto traguardo di sicurezza (TdS) in termini di specifiche che il suo prodotto dovrebbe assicurare.

Compito del valutatore è verificare a mezzo dell’attività valutativa la congruenza o meno del prodotto/sistema alle specifiche di sicurezza richieste dal committente/sviluppatore, attraverso opportuni criteri di valutazione, redigendo poi un rapporto ed un certificato finale di pubblico dominio.

Questioni giuridiche e regolamentazione globale

Una delle principali battaglie e delle lamentele dell’industria degli AntiVirus è quella relativa alla creazione di una regolamentazione unificata e globale, una base di regole comuni per giudicare legalmente, ed eventualmente punire, i crimini informatici e i criminali informatici.

Infatti, ancora oggi, anche se una società produttrice di AntiVirus dovesse riuscire a scoprire chi è il criminale informatico dietro alla creazione di un particolare virus o di un malware o di un qualsiasi attacco informatico, spesso le autorità locali non possono comunque agire.

Questo è principalmente dovuto al fatto che praticamente ogni stato ha una sua propria regolamentazione, differente da quella degli altri stati.

Ed è anche grazie ad alcune società europee produttrici di AntiVirus (e.g. BullGuard, F-Secure, Frisk, Panda, Sophos, TG Soft, …) che, per risolvere il problema, la Commissione Europea ha deciso di fondare l’EC3 (European Cybercrime Centre).

L’EC3 è stato ufficialmente aperto il primo gennaio 2013.

L’EC3 si focalizzerà nella lotta della UE contro i crimini informatici.

Fonte : Wikipedia

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Condividi allo stesso modo 3.0 Unported.

L’usabilità del web o web usability è l’applicazione dei principi dell’usabilità in quegli ambiti in cui la navigazione del web può essere considerata come un paradigma generale (o “metafora”) per costruire una interfaccia grafica (GUI).

Cosa si intende per usabilità del web

L’usabilità del web è una proprietà esterna al prodotto-sito poiché riguarda l’interazione tra un utente, le sue caratteristiche e quel sito. La normativa ISO/IEC 2001a definisce l’usabilità come”la capacità di un sistema di essere compreso, appreso, utilizzato e attraente per gli utenti quando usato sotto condizioni specificate“.

  • La Comprensibilità di un sito riguarda lo sforzo richiesto per capire il sistema
  • L’apprendibilità riguarda lo sforzo necessario all’utente per imparare ad usare il sistema
  • L’utilizzabilità si riferisce allo sforzo richiesto all’utente per utilizzare il sistema agendo sui suoi controlli.

Un’altra definizione di usabilità tratta dalle indicazioni ISO 9241-11:1998 la indica come:

Il grado in cui un prodotto può essere usato da particolari utenti per raggiungere certi obiettivi con efficacia, efficienza, soddisfazione in uno specifico contesto d’uso” intendendo

  • Efficacia come precisione e completezza con cui gli utenti raggiungono specifici obiettivi
  • Efficienza come risorse impiegate in relazione alla precisione e completezza cui gli utenti raggiungono specifici obiettivi
  • Soddisfazione come libertà dal disagio e attitudine positiva con cui gli utenti raggiungono specifici obiettivi attraverso l’uso del prodotto.

In questo contesto si parla di usabilità in termini di interazione efficace e soddisfacente per l’utente sia in termini di efficienza sia in termini di benessere.

Quali sono i suoi obiettivi

L’usabilità ha quindi come obiettivi quello di economizzare lo sforzo cognitivo dell’utente, proponendo prodotti che siano facili da comprendere, da imparare, da usare, da ricordare, che evitino o rendano recuperabili gli errori e che quindi gratifichino l’utilizzatore.

Evoluzione del concetto di usabilità

Il concetto di usabilità del web è strettamente connesso a quello di usabilità generale che ha cominciato a diffondersi negli anni 60 quando si inizia a parlare di ergonomia cognitiva, la scienza che studia le interazioni dell’uomo con l’ambiente in relazione ai suoi vincoli fisici e cognitivi.

Per tutti gli anni 70, poiché il computer non costituiva un prodotto di massa, l’usabilità non costituiva un problema: chi progettava un sistema sapeva anche usarlo.

Il concetto si viene a sviluppare a partire dalla seconda metà degli anni ’80, con l’espansione delle tecnologie informatiche a livello degli ambienti lavorativi e delle famiglie e si configura con maggior precisione negli anni ’90 con la diffusione del personal computer.

Il concetto di usabilità in questo nuovo contesto viene ad inserirsi nell’ambiente Information Communication Technology (ICT), come disciplina che coniuga psicologia, intelligenza artificiale, informatica e design.

Successivamente nasce anche la Human Computer Interaction (HCI), la scienza che studia l’interazione tra uomo e computer, in cui l’usabilità riguarda la componente psicologica del software.

In questi anni Apple Macintosh realizza il primo computer completamente usabile (user-friendly) da masse di inesperti, con un sistema operativo visuale basato sulla metafora della scrivania, seguito poco dopo da Windows che attuerà una politica di vendita più aggressiva, raggiungendo un numero molto alto di utenti.

L’avvento di Internet, a partire dalla metà degli anni ’90 ha ulteriormente ampliato il concetto di usabilità che si sposta dalle caratteristiche del software a quelle dell’interazione.

L’usabilità dei siti web viene a configurarsi come elemento determinante perché è condizione preliminare al loro effettivo utilizzo da parte dell’utente e, in termini di produttività, al realizzarsi stesso del guadagno.

Web Usability e progettazione

La web usability è un approccio della progettazione per rendere i siti web facili da usare per l’utente finale, senza richiedere all’utente di sottostare a una formazione specifica.

È un processo che cerca di rendere l’ambiente web attraente e amichevole per l’utente che deve navigare con fluidità recuperando facilmente i contenuti.

L’utente deve essere in grado di mettere in relazione in modo intuitivo le azioni che ha bisogno di compiere nella pagina web con altre interazioni che svolge fisicamente nella vita quotidiana, come ad esempio premere un pulsante per ottenere un’azione.

La web usability si pone come obiettivi

  1. Presentare l’informazione all’utente in modo chiaro e conciso, evitando termini tecnici o specialistici
  2. Semplificare la struttura del compito
  3. Offrire all’utente le scelte corrette, in una maniera che risulti ovvia
  4. Organizzare ogni pagina in modo che l’utente riconosca la posizione e le azioni da compiere
  5. Eliminare ogni ambiguità relativa alle conseguenze di un’azione (es. fare clic su cancella/rimuovi/compra)
  6. Mettere la cosa più importante nella posizione giusta della pagina web o dell’applicazione web.
  7. Fare in modo che l’utente abbia un rapido feedback (informazione di ritorno) ad ogni azione compiuta
  8. Rendere la grafica accattivante ed interessante dal punto di vista visivo attraverso l’uso di diagrammi, tabelle, sezioni informative
  9. Ridurre gli sforzi cognitivi dell’utente

L’obiettivo finale della web usability è quello di rendere invisibile la tecnologia sottostante, trasparente per l’utente che deve concentrarsi.

La propria attenzione e lo sforzo cognitivo devono essere rivolti principalmente sul compito, senza disperderli sull’utilizzo del mezzo.

Per ottenere siti web usabili è necessario conoscere e coinvolgere gli utenti durante la fase della progettazione.

La web usability va perciò considerata e valutata in ogni momento della progettazione: nelle fasi iniziali, in itinere e prima della pubblicazione.

In ogni fase con strumenti diversi (riferimenti ai principi, interviste, confronti, simulazione d’uso, questionari e test su campione di utenti target) e con il coinvolgimento continuo dell’utente.

Metodologia

Grazie ai risultati derivanti dalla ricerca nel campo dell’usabilità è possibile sviluppare metodologie per migliorare l’usabilità del web stessa.

Indicazioni per l’usabilità del web

La web usability deve tener conto:

  • del compito che l’utente deve svolgere (la navigazione delle pagine di un sito)
  • dell’utente che lo svolge (target cui si rivolge il sito)
  • all’ambiente d’uso (interfaccia, hardware, browser, velocità di connessione)

A questo proposito, la progettazione di siti web tiene conto degli apporti, in termini di esperienza, del lavoro di Jakob Nielsen, Bruce Tognazzini e Steve Krug che, con i loro lavori, hanno dettato euristiche e principi per la web usability.

I requisiti per creare un sito web usabile

Dall’analisi della letteratura relativa all’argomento sono stati individuati sei requisiti che, nella loro interazione, permettono di realizzare un sito usabile:

  • navigabilità
  • tempi di attesa
  • completezza dei contenuti
  • comprensibilità delle informazioni
  • efficacia comunicativa
  • attrattiva grafica

Web usabilità e web accessibilità

La web usability,e cioè la possibilità di utilizzare con facilità il contenuto del web da parte dell’utente, ne condiziona in modo diretto l’accessibilità.

L’inventore del web e direttore del W3C Word Wide Web Consortium, Tim Berners-Lee, nella home page del sito della WAI, dichiara che «The power of the Web is in its universality.

Access by everyone regardless of disability is an essential aspect» (tr. it. «La forza del Web sta nella sua universalità. L’accesso da parte di chiunque, indipendentemente dalle disabilità, ne è un aspetto essenziale»).

Mentre nel Glossario delle Web Content Accessibility Guidelines 1.0, il termine accessibilità viene definito come «Content is accessible when it may be used by someone with a disability». (tr. it. «Il contenuto è accessibile quando può essere usato da qualcuno con disabilità»).

eCommerce

Nel contesto dei siti di eCommerce (commercio elettronico), il significato di usabilità del web è limitato all’efficienza: effettuare vendite e/o eseguire altre operazioni importanti nel campo affaristico.

La web usability ha ricevuto una rinnovata attenzione quando molti dei primi siti di eCommerce hanno iniziato a fallire nel 2000.

Mentre durante l’emergenza di internet negli anni novanta furono considerati indispensabili complicati design grafici per un’applicazione di e-businness di successo, i protagonisti della web-usability dicevano praticamente che era vero il contrario.

Essi sostenevano il “KISS principle” (Keep It Simple, Stupid, ossia “falla semplice, stupido”), che aveva dato prova di avere effetto nell’attirare l’attenzione dell’utente.

fonte: Wikipedia

Per realtà aumentata (in inglese augmented reality, abbreviato AR), o realtà mediata dall’elaboratore, si intende l’arricchimento della percezione sensoriale umana mediante informazioni, in genere manipolate e convogliate elettronicamente, che non sarebbero percepibili con i cinque sensi.

Il cruscotto dell’automobile, l’esplorazione della città puntando lo smartphone o la chirurgia robotica a distanza sono tutti esempi di realtà aumentata.

Definizione di realtà aumentata

Gli elementi che “aumentano” la realtà possono essere aggiunti attraverso un dispositivo mobile, come uno smartphone, con l’uso di un PC dotato di webcam o altri sensori, con dispositivi di visione (per es. occhiali a proiezione sulla retina), di ascolto (auricolari) e di manipolazione (guanti) che aggiungono informazioni multimediali alla realtà già normalmente percepita.

Le informazioni “aggiuntive” possono in realtà consistere anche in una diminuzione della quantità di informazioni normalmente percepibili per via sensoriale, sempre al fine di presentare una situazione più chiara o più utile o più divertente.

Anche in questo caso si parla di AR.

Nella realtà virtuale (virtual reality, VR), le informazioni aggiunte o sottratte elettronicamente sono preponderanti, al punto che le persone si trovano immerse in una situazione nella quale le percezioni naturali di molti dei cinque sensi non sembrano neppure essere più presenti e sono sostituite da altre.

Nella realtà aumentata (AR), invece, la persona continua a vivere la comune realtà fisica, ma usufruisce di informazioni aggiuntive o manipolate della realtà stessa.

La distinzione tra VR e AR è peraltro artificiosa: la realtà mediata, infatti, può essere considerata come un continuo, nel quale VR e AR si collocano adiacenti e non sono semplicemente due concetti opposti[2].

La mediazione avviene solitamente in tempo reale.

Le informazioni circa il mondo reale che circonda l’utente possono diventare interattive e manipolabili digitalmente.

Esempi

Già usata in ambiti molto specifici come militare, medicale o ricerca, nel 2009 grazie al miglioramento della tecnologia la realtà aumentata è arrivata al grande pubblico sia come campagne di comunicazione augmented advertising pubblicate sui giornali o sulla rete, sia attraverso un numero sempre crescente di applicazioni per telefonini, in particolare per Windows Phone, Android e iPhone.

È oggi infatti possibile con la realtà aumentata trovare informazioni rispetto al luogo in cui ci si trova (come alberghi, bar, ristoranti, stazioni della metro) ma anche visualizzare le foto dai social network come Flickr o voci Wikipedia sovrapposte alla realtà; trovare i Twitters vicini; ritrovare la macchina parcheggiata; giocare a catturare fantasmi e fate invisibili usando una intera città come campo di gioco; taggare luoghi, inserire dei messaggini in realtà aumentata in un luogo specifico (metodo usato dai teenager giapponesi per incontrarsi).

Tipi di realtà aumentata

Esistono due tipi principali di realtà aumentata:

  • Realtà aumentata su dispositivo mobile. Il telefonino (o smartphone di ultima generazione) deve essere dotato necessariamente di Sistema di Posizionamento Globale (GPS), di magnetometro (bussola) e deve poter permettere la visualizzazione di un flusso video in tempo reale, oltre che di un collegamento Internet per ricevere i dati online. Il telefonino inquadra in tempo reale l’ambiente circostante; al mondo reale vengono sovrapposti i livelli di contenuto, dai dati da Punti di Interesse (POI) geolocalizzati agli elementi 3D.
  • Realtà aumentata su computer. È basata sull’uso di marcatori, (ARtags), di disegni stilizzati in bianco e nero che vengono mostrati alla webcam, vengono riconosciuti dal computer, e ai quali vengono sovrapposti in tempo reale i contenuti multimediali: video, audio, oggetti 3D, ecc. Normalmente le applicazioni di realtà aumentata sono basate su tecnologia Adobe Flash.

La «pubblicità aumentata» (Augmented advertising) è esplosa nel 2009 attraverso numerose campagne di marchi (Toyota, Lego, Mini, Kellogs, General Electrics), cantanti (Eminem, John Mayer) o riviste (Colors, Esquire Magazine o Wallpaper).

Spam Magazine, nata nel 2012 in Italia, è la prima rivista gratuita totalmente in realtà aumentata (sia per quanto riguarda i contenuti editoriali sia per quelli commerciali).

fonte: Wikipedia

Cos’è il Google Pagerank

Il Google PageRank è un algoritmo di analisi che assegna un peso numerico ad ogni elemento di un collegamento ipertestuale d’un insieme di documenti, come ad esempio il World Wide Web, con lo scopo di quantificare la sua importanza relativa all’interno della serie.

A cosa serve il Google pagerank?

L’algoritmo può essere applicato a tutti gli insiemi di oggetti collegati da citazioni e riferimenti reciproci. Il peso numerico assegnato ad un dato elemento E è chiamato anche “il PageRank Il di E”, siglato in PR (E).

L’algoritmo di PageRank è stato brevettato (brevetto US 6285999) dalla Stanford University; è inoltre un termine ormai entrato di fatto nel lessico dei fruitori dei servizi offerti dai motori di ricerca. Il nome PageRank è un marchio di Google.

Elementi generali

Letteralmente traducibile come rango di una pagina web (ma anche un gioco di parole collegato al nome di uno dei suoi inventori, Larry Page), il pagerankè facilmente riconducibile al concetto di popolarità tipico delle relazioni sociali umane, ed indica, o si ripromette di indicare, le pagine o i siti di maggiore rilevanza in relazione ai termini ricercati.

Gli algoritmi che rendono possibile l’indicizzazione del materiale presente in rete utilizzano anche il grado di popolarità di una pagina web per definirne la posizione nei risultati di ricerca.

Questo metodo può esser descritto come analogo ad una elezione nella quale ha diritto al voto chi può pubblicare una pagina web, e il voto viene espresso attraverso i collegamenti in essa presenti.

I voti non hanno tutti lo stesso peso: le pagine web più popolari esprimeranno, coi propri link, voti di valore maggiore.

L’interpretazione e la definizione della popolarità di un sito non sono però legate soltanto a queste votazioni, ma tengono conto anche della pertinenza del contenuto di una pagina, nonché delle pagine correlate, con i termini ed i criteri della ricerca effettuata.

Altro importante elemento che lega un sito alla sua popolarità è relativo alla diffusione, alla popolarità dell’argomento trattato in esso.

Per argomenti poco richiesti i siti raggiungono facilmente le prime posizioni nelle ricerche, ma altrettanto verosimilmente posseggono e mantengono un page rank che potrebbe essere bassissimo.

Tutto questo permette, o perlomeno ha lo scopo, di attuare un controllo incrociato che garantisca la validità dei risultati di ricerca.

Visualizzazione del grado di popolarità di un sito

Per ottenere informazioni riguardo, ad esempio, alla notorietà di una pagina web in Google è possibile installare la Google Toolbar nel browser di navigazione oppure si possono utilizzare servizi proposti da terze parti in grado di determinare tale informazione ed implementabili su siti internet.

Per aumentare il pagerank si possono sfruttare dei piccoli accorgimenti. Uno dei più usati è cercare di attrarre l’attenzione di utenti che si interessino ad argomenti correlati al nostro sito o blog. Lo scopo è conquistare gli utenti veramente interessati a seguire i nostri post.

Tale accorgimento serve per scavalcare una delle regole di Google: i link che possono puntare a un sito devono essere “naturali”, ovvero non richiesti o generati da scambio di link o a pagamento.

Se Google si accorge che un sito fa richieste che non rispettano le regole del motore di ricerca, lo penalizza immediatamente, arrivando anche a bannare il proprietario che vada contro le regole di condotta sottoscritte al momento dell’iscrizione al servizio del motore di ricerca.

Per cercare di ottenere link naturali è necessario proporre argomenti sempre aggiornati, non copiati, con approfondimenti interessanti per i fruitori del servizio web.

Fonte Wikipedia

Twitter è un servizio gratuito di social network e microblogging che fornisce agli utenti una pagina personale aggiornabile tramite messaggi di testo con una lunghezza massima di 140 caratteri.

Twitter è costruito totalmente su architettura Open source.

Gli aggiornamenti possono essere effettuati tramite il sito stesso, via SMS, con programmi di messaggistica istantanea, posta elettronica, oppure tramite varie applicazioni basate sulle API di Twitter. Twitter è stato creato nel marzo 2006 dalla Obvious Corporation di San Francisco.

Il nome “Twitter” deriva dal verbo inglese to tweet che significa “cinguettare”. Tweet è anche il termine tecnico degli aggiornamenti del servizio. Itweet che contengono esattamente 140 caratteri vengono chiamati twoosh.

Gli aggiornamenti sono mostrati nella pagina di profilo dell’utente e comunicati agli utenti che si sono registrati per riceverli. È anche possibile limitare la visibilità dei propri messaggi oppure renderli visibili a chiunque.

Il valore del social network è stato stimato intorno agli 8,4 miliardi di dollari. Twitter nel 2012 ha raggiunto i 500 milioni di iscritti e 200 milioni di utenti attivi che fanno accesso almeno una volta al mese.

La storia di Twitter

La creazione

La nascita di Twitter risale al 2006, a un lungo brainstorming fra i membri di Odeo, una società californiana che stava per lanciare una particolare piattaforma di creazione e gestione dei podcast dal funzionamento molto simile a quello di una casella vocale.

L’idea non venne mai alla luce perché di lì a poco, col lancio del primo iPhone, Apple avrebbe lanciato una nuova versione totalmente rivoluzionata di iTunes, che avrebbe capillarmente diffuso in tutti i telefoni e gli iPod di nuova generazione una piattaforma integrata per la sottoscrizione e la gestione dei podcast.

Trovatisi a un binario morto, i membri di Odeo iniziarono a cercare un’altra idea originale che li salvasse da un fallimento sicuro.

Un giorno, seduto su un’altalena al parco mentre mangiava cibo messicano, Jack Dorsey ebbe l’idea di un servizio che permettesse a un individuo di comunicare con un ristretto numero di persone attraverso degli SMS.

Il primo nome del progetto fu twttr, nome ispirato all’allora già fortunato Flickr ed ai 5 caratteri di lunghezza dei numeri brevi per l’invio degli SMS negli USA.

Gli sviluppatori scelsero inizialmente il numero “10958” come codice breve per l’invio dei messaggi, numero che fu presto rimpiazzato dal più semplice “40404”. 

Lo sviluppo del progetto iniziò ufficialmente il 21 marzo 2006 quando Dorsey alle 21.50 PM (PST) pubblicò il primo tweet: “just setting up my twttr“.

Il primo prototipo della piattaforma è stato testato internamente fra gli impiegati di Odeo, mentre la versione finale è stata lanciata e aperta al pubblico il 15 luglio 2006.

A ottobre del 2006 Biz Stone, Evan Williams, Jack Dorsey e alcuni altri membri di Odeo hanno creato la Obvious Corporation, hanno assorbito Odeo e riscattato tutti i suoi progetti, inclusi Odeo.com e Twitter.com, dagli investitori e dagli azionisti della precedente società. Nell’aprile del 2007 Twitter si è costituita come società indipendente.

Fortuna e popolarità

La popolarità di Twitter ha visto una svolta con l’edizione del 2007 del South by Southwest festival: nei giorni dell’evento l’uso di Twitter è triplicato passando da 20.000 ad oltre 60.000 tweet al giorno.

All’evento erano presenti due grandi schermi 60 pollici utilizzati esclusivamente per far scorrere lo stream dei tweet pubblici.

Il festival fu un grande evento pubblicitario per il servizio e lo staff ricevette il Web Award prize.

Il 22 gennaio 2010 è stato il giorno del primo tweet inviato dallo spazio: l’autore è stato l’astronauta della NASA Timothy Creamer dalla Stazione Spaziale Internazionale.

A partire dalla fine di novembre dello stesso anno diversi altri astronauti della NASA hanno iniziato ad inviare aggiornamenti tramite un account comune: @NASA_Astronauts.

Nello stesso periodo l’astronauta italiano Paolo Nespoli, tornato nella Stazione Spaziale Internazionale per una missione dell’ESA, ha iniziato ad inviare tramite il suo account personale aggiornamenti costanti e foto della Terra vista dallo spazio.

L’astronauta è inoltre uno dei celebri protagonisti del video con cui Twitter a marzo del 2011 ha celebrato i 5 anni dal lancio del servizio.

In Italia, il 29 gennaio 2012 Twitter ha per la prima volta battuto una notizia di rilevanza istituzionale con largo anticipo rispetto ai media tradizionali: la morte del Presidente emerito Scalfaro è stata infatti twittata d un professore universitario (Alberto Gambino), suo amico e collaboratore, con un messaggio su twitter ben 45 minuti prima delle agenzie di stampa, dando vita ad un vivace dibattito in rete. 

Nel 28 febbraio del 2012 è stata twittata una foto del pilota NASCAR Brad Keselowski scattata da lui stesso in pista, durante un’interruzione della corsa a causa di un incidente, per testimoniare e inviare al mondo quei minuti in cui tutti i piloti in gara si trovavano fermi in attesa della ripartenza al Daytona international Speedway.

Il 14 settembre 2010, a quasi 5 anni dal lancio, Twitter ha lanciato una nuova interfaccia completamente rivisitata con una migliore integrazione delle funzionalità via via introdotte durante gli anni e ha cambiato il suo logo.

Leadership

Dorsey è stato il primo amministratore delegato dell’azienda. Il 16 ottobre 2008 Dorsey è diventato presidente e Williams ha preso il suo posto come CEO.

Il 4 ottobre 2010 ha preso il suo postoDick Costolo, ex direttore operativo. Dorsey è tornato a lavorare per Twitter nel marzo del 2010 dividendosi fra l’azienda della ormai consolidata piattaforma sociale di microblogging e Square, azienda nella quale ricopre il ruolo di amministratore delegato i cui uffici sono a pochi passi di distanza da quelli di Twitter a San Francisco.

Caratteristiche d’uso

Il servizio è diventato estremamente popolare, anche come avversario di Facebook, grazie alla semplicità ed immediatezza di utilizzo.

Esistono diversi esempi in cui Twitter è stato usato dagli utenti per diffondere notizie, come strumento di giornalismo partecipativo.

Ad esempio, nel caso del terremoto in Abruzzo del 6 aprile 2009, gli utenti Twitter hanno segnalato la notizia prima dei media tradizionali.

Twitter deve la sua semplicità anche alla mancanza di alcune funzioni tipicamente riscontrabili in social-network come Facebook, tra cui la condivisione di fotografie.

Tuttavia esistono molti servizi esterni che possono aiutare a potenziare Twitter e ad implementarlo con funzionalità tipiche di Facebook (per esempio TwitPic è una valida soluzione per distribuire immagini all’interno del social-network).

L’insieme degli status message pubblicati su Twitter dagli utenti costituisce un’enorme quantità di materiale, che può essere utilizzata anche dalle aziende: ad esempio Dell ha aperto un canale di comunicazione con i propri clienti su Twitter e molti servizi offrono il monitoraggio della reputazione dei brand su Twitter.

Anche in Italia alcune aziende, università, scuole e pubbliche amministrazioni utilizzano Twitter a scopi didattici.

La società che gestisce il servizio non è quotata in borsa ma in base agli ultimi investimenti effettuati da investitori esterni è stato valutato che la società valga circa un miliardo di dollari.

Nel giugno 2009 a Twitter è stata dedicata la copertina di Time e un articolo di Steven Berlin Johnson sull’innovazione portata da questo servizio.

Da quanto riferito nel luglio 2009 da James Halton, capo-marketing della società Microsoft, Twitter e Facebook avrebbero fatto parte di un servizio online della Xbox 360 prima del Natale dello stesso anno.

Dall’11 dicembre 2009 le lingue attive in Twitter sono il francese, l’italiano, il tedesco e lo spagnolo insieme all’inglese ed al giapponese che erano presenti fin dall’inizio.

Da aprile 2010, Twitter ha introdotto la possibilità di creare tweet sponsorizzati, chiamati “Promoted Tweets”. Per il momento sono disponibili solo ad un numero ristretto di account.

Caratteristiche tecniche di Twitter

Tecnologia

L’interfaccia web di Twitter è scritta in Ruby on Rails, ed i messaggi sono memorizzati in un software server in esecuzione programmata in Scala.

Esiste anche una API aperta per tutti gli sviluppatori, che è un grande vantaggio per chi vuole Twitter come servizio integrato in altre applicazioni (web, desktop o mobile).

Secondo Biz Stone, oltre il 50% del traffico di Twitter passa attraverso la sua API.

Tuttavia, a causa di problemi tecnici e di scalabilità, Twitter potrebbe abbandonare Ruby on Rails come suo framework di sviluppo e crearne uno nuovo basato su PHP. Evan Williams, tuttavia, ha rapidamente negato queste informazioni in un tweet che ha inviato il 1º maggio 2008.

Interfaccia di Twitter

Steven Berlin Johnson descrive la meccanica di base di Twitter come “molto semplice”:

« Come un social network, Twitter ruota intorno al principio dei seguaci (followers). Quando si sceglie di seguire un altro utente di Twitter, i tweets di tale utente vengono visualizzati in ordine cronologico inverso, sulla home page di Twitter. Se seguite 20 persone, si vedrà una miscela di tweets scorrere la pagina: Aggiornamento sui cereali per la colazione, nuovi link, consigli musicali, tra cui riflessioni sul futuro dell’istruzione. »

Il 30 aprile 2009, Twitter ha cambiato la sua interfaccia web con l’aggiunta di una barra di ricerca e un riassunto di temi di attualità (Temi di Tendenza, o Trending Topics), cioè le frasi più comuni che compaiono nel messaggio. «Ogni aggiornamento pubblico inviato a Twitter da qualsiasi parte del mondo può essere immediatamente indicizzato e utilizzato per la ricerca in tempo reale», dice Biz Stone. «Con questa funzione che Twitter ha recentemente lanciato, è diventato, a sorpresa, un motore di ricerca per trovare ciò che sta accadendo ora».

Diversamente da Facebook o altri social network, non esiste una chat o l’invio di file allegati, e non è consentito inviare messaggi a persone che già non sono presenti nella lista dei contatti Tweet.

I messaggi possono essere visualizzati solo se il destinatario è a sua volta già un “follower” del mittente. Invece, per inviare un messaggio diretto pubblico è sufficiente avere il destinatario come “following”.

Etichette

I messaggi brevi di Twitter possono essere etichettati con l’uso di uno o più hashtag: parole o combinazioni di parole concatenate precedute dal simbolo cancelletto (#).

Etichettando un messaggio con un hashtag si crea un collegamento ipertestuale a tutti i messaggi recenti che citano lo stesso hashtag.

Nel 2010 Twitter ha introdotto nella prima pagina i “trending topics” ossia l’elenco degli hashtag estremamente utilizzati. Nel 2012 sono stati introdotti i “trending topics localizzati” che permettono la visualizzazione degli hashtag più popolari per ogni Stato.

Fonte: Wikipedia

In informatica con il termine inglese cloud computing (in italiano nuvola informatica) si indica un insieme di tecnologie che permettono, tipicamente sotto forma di un servizio offerto da un provider al cliente, di memorizzare/archiviare e/o elaborare dati (tramite CPU o software) grazie all’utilizzo di risorse hardware/software distribuite e virtualizzate in Rete.

La correttezza nell’uso del termine è contestata da molti esperti: se queste tecnologie sono viste da alcuni analisti come una maggiore evoluzione tecnologica offerta dalla rete Internet , da altri, come Richard Stallman, sono invece considerate una trappola di marketing.

Introduzione

È noto come, utilizzando varie tipologie di unità di elaborazione (CPU), memorie di massa fisse o mobili come ram, dischi rigidi interni o esterni, Cd/DVD, chiavi USB, eccetera, un computer sia in grado di elaborare, archiviare, recuperare programmi e dati.

Nel caso di computer collegati in rete locale (LAN) o geografica (WAN) la possibilità di elaborazione/archiviazione/recupero può essere estesa ad altri computer e dispositivi remoti dislocati sulla rete stessa.

Sfruttando la tecnologia del cloud computing gli utenti collegati ad un cloud provider possono svolgere tutte queste mansioni, anche tramite un semplice internet browser.

Possono, ad esempio, utilizzare software remoti non direttamente installati sul proprio computer e salvare dati su memorie di massa on-line predisposte dal provider stesso (sfruttando sia reti via cavo che senza fili).

Funzioni del cloud computing

Nonostante il termine sia piuttosto vago e sembri essere utilizzato in diversi contesti con significati differenti tra loro, si possono distinguere tre tipologie fondamentali di servizi cloud computing:

  • SaaS (Software as a Service) – Consiste nell’utilizzo di programmi installati su un server remoto, cioè fuori del computer fisico o dalla LAN locale, spesso attraverso un server web. Questo acronimo condivide in parte la filosofia di un termine oggi in disuso, ASP (Application service provider).
  • DaaS (Data as a Service) – Con questo servizio vengono messi a disposizione via web solamente i dati ai quali gli utenti possono accedere tramite qualsiasi applicazione come se fossero residenti su un disco locale.
  • HaaS (Hardware as a Service) – Con questo servizio l’utente invia dati ad un computer che vengono elaborati da computer messi a disposizione e restituiti all’utente iniziale.

A questi tre principali servizi possono essere integrati altri:

  • PaaS (Platform as a Service) – Invece che uno o più programmi singoli, viene eseguita in remoto una piattaforma software che può essere costituita da diversi servizi, programmi, librerie, etc. (ad esempio Google’s App Engine)
  • IaaS (Infrastructure as a Service) – Utilizzo di risorse hardware in remoto. Questo tipo di cloud è quasi un sinonimo di Grid Computing, ma con una caratteristica imprescindibile: le risorse vengono utilizzate su richiesta o domanda al momento in cui una piattaforma ne ha bisogno, non vengono assegnate a prescindere dal loro utilizzo effettivo. (ad esempio Google Compute Engine)

Il termine cloud computing si differenzia però da grid computing che è invece un paradigma orientato al calcolo distribuito, e in generale, richiede che le applicazioni siano progettate in modo specifico.

Nel caso di funzionalità di memorizzazione in remoto la creazione di una copia di sicurezza (backup) è automatica e l’operatività si trasferisce tutta online mentre i dati sono memorizzati in server farm generalmente localizzate nei Paesi di origine del service provider.

Il cloud computing rende disponibili all’utilizzatore le risorse come se fossero implementate da sistemi (server o periferiche personali) “standard”.

L’implementazione effettiva delle risorse non è definita in modo dettagliato; anzi l’idea è proprio che l’implementazione sia un insieme eterogeneo e distribuito –the cloud, in inglese nuvola – di risorse le cui caratteristiche non sono note all’utilizzatore.

Casi d’uso

Il sistema del cloud computing prevede tre fattori distinti:

  • Fornitore di servizi (cloud provider)– Offre servizi (server virtuali, storage, applicazioni complete) generalmente secondo un modello “pay-per-use”;
  • Cliente amministratore – Sceglie e configura i servizi offerti dal fornitore, generalmente offrendo un valore aggiunto come ad esempio applicazioni software;
  • Cliente finale – Utilizza i servizi opportunamente configurati dal cliente amministratore.

In determinati casi d’uso il cliente amministratore e il cliente finale possono coincidere.

Ad esempio un cliente può utilizzare un servizio di storage per effettuare il backup dei propri dati, in questo caso il cliente finale provvede a configurare e utilizzare il servizio.

I principali processi su cui i diversi fornitori cominciano a proporre soluzioni in modalità cloud sono Customer relationship management (CRM), Human Capital Management (HCM), Enterprise resource planning (ERP).

Architettura

L’architettura del cloud computing prevede uno o più server reali, generalmente in architettura ad alta affidabilità e fisicamente collocati presso il data center del fornitore del servizio.

Il fornitore di servizi espone delle interfacce per elencare e gestire i propri servizi.

Il cliente amministratore utilizza tali interfacce per selezionare il servizio richiesto (ad esempio un server virtuale completo oppure solo storage) e per amministrarlo (configurazione, attivazione, disattivazione).

Il cliente finale utilizza il servizio configurato dal cliente amministratore.

Le caratteristiche fisiche dell’implementazione (server reale, localizzazione del data center) sono irrilevanti.

Problematiche, rischi e critiche

I sistemi di cloud computing vengono criticati principalmente per l’esposizione degli utenti a rischi legati a:

1) Sicurezza informatica e privacy degli utenti:

  • Utilizzare un servizio di cloud computing per memorizzare dati personali o sensibili, espone l’utente a potenziali problemi di violazione della privacy. I dati personali vengono memorizzati nelle Server Farms di aziende che spesso risiedono in uno stato diverso da quello dell’utente. Il cloud provider, in caso di comportamento scorretto o malevolo, potrebbe accedere ai dati personali per eseguirericerche di mercato e profilazione degli utenti.
  • Con i collegamenti wireless, il rischio sicurezza aumenta e si è maggiormente esposti ai casi dipirateria informatica a causa della minore sicurezza offerta dalle reti senza fili. In presenza di atti illegali, come appropriazione indebita o illegale di dati personali, il danno potrebbe essere molto grave per l’utente, con difficoltà di raggiungere soluzioni giuridiche e/o rimborsi se il fornitore risiede in uno stato diverso da paese dell’utente.
  • Nel caso di industrie o aziende, tutti i dati memorizzati nelle memorie esterne sono seriamente esposti a eventuali casi di spionaggio industriale.

2) Problemi internazionali di tipo economico e politico

  • Possono verificarsi quando dati pubblici sono raccolti e conservati in archivi privati, ​​situati in un paese diverso da quelli degli utenti della “nuvola”. Produzioni cruciali e di carattere intellettuale insieme a una grande quantità di informazioni personali sono memorizzate crescentemente in forma di dati digitali in archivi privati centralizzati e parzialmente accessibili. Nessuna garanzia viene data agli utenti per un libero accesso futuro.
  • Altre problematiche sono legate alla localizzazione degli archivi della “nuvola” in alcuni paesi ricchi. Se non regolato da specifiche norme internazionali ciò potrebbe:
    • aumentare il “digital divide” tra paesi ricchi e poveri (se l’accesso alle conoscenze memorizzate non sarà liberamente garantita a tutti).
    • favorire principalmente grandi corporation con «organismi policentrici” e “menti monocentriche” dislocate principalmente nei Paesi della “nuvola”, essendo la proprietà immateriale considerata come un fattore strategico per le moderne economie “knowledge-based”.

Maggiori sicurezze e garanzie vi sono nel caso in cui il fornitore del servizio appartenga alla stessa nazione/area applicando le medesime leggi/normative sulla privacy e sicurezza del cliente (la legislazione USA o di altre nazioni è molto diversa dall’italiana e diventa impossibile pensare di soddisfare normative nazionali con servizi in cloud di altre nazioni).

3) Continuità del servizio offerto:

  • Delegando a un servizio esterno la gestione dei dati e la loro elaborazione l’utente si trova fortemente limitato nel caso in cui i suddetti servizi non siano operativi (out of service). Un eventuale malfunzionamento inoltre colpirebbe un numero molto elevato di persone contemporaneamente dato che questi sono servizi condivisi.
  • Anche se i migliori servizi di cloud computing utilizzano architetture ridondate e personale qualificato al fine di evitare malfunzionamenti dei sistema e ridurre la probabilità di guasti visibili dall’utente finale, non eliminano del tutto il problema.
  • Bisogna anche considerare che tutto si basa sulla possibilità di avere una connessione Internet ad alta velocità sia in download che in upload e che anche nel caso di una interruzione della connessione dovuta al proprio Internet Service Provider/ISP si ha la completa paralisi delle attività.

4) Difficoltà di migrazione dei dati nel caso di un eventuale cambio del gestore dei servizi cloud:

  • Non esistendo uno standard definito tra i gestori dei servizi un eventuale cambio di operatore risulta estremamente complesso. Tutto ciò risulterebbe estremamente dannoso in caso di fallimento del gestore dei servizi cui ci si è affidati.

Fonte: Wikipedia

Cosa è Facebook?

Facebook è un servizio di rete sociale lanciato nel febbraio 2004, posseduto e gestito dalla corporation Facebook, Inc.

Il sito, fondato a Cambridge negli Stati Uniti da Mark Zuckerberg e dai suoi compagni di università Eduardo Saverin, Dustin Moskovitz e Chris Hughes, era originariamente stato progettato esclusivamente per gli studenti dell’Università di Harvard, ma fu presto aperto anche agli studenti di altre scuole della zona di Boston, della Ivy League e della Stanford University.

Successivamente fu aperto anche agli studenti delle scuole superiori e poi a chiunque dichiarasse più di 13 anni di età.

Da allora Facebook raggiunse un enorme successo: è diventato il secondo sito più visitato al mondo, preceduto solo da Google; è disponibile in oltre 70 lingue e nell’ottobre 2012 conta circa 1 miliardo di utenti attivi che effettuano l’accesso almeno una volta al mese, classificandosi come primo servizio di rete sociale per numero di utenti attivi.

Il nome “Facebook” prende spunto da un elenco con nome e fotografia degli studenti, che alcune università statunitensi distribuiscono all’inizio dell’anno accademico per aiutare gli scritti a socializzare tra loro.

Gli utenti possono accedere al sito previa una registrazione gratuita, durante la quale vengono richiesti dati personali come nome, cognome, data di nascita e indirizzo email.

Il sito chiarisce che l’inserimento obbligatorio della data di nascita serve esclusivamente “per favorire una maggiore autenticità e consentire l’accesso ai vari contenuti in base all’età”.

Completata la registrazione, gli utenti possono creare un profilo personale, includere altri utenti nella propria rete sociale, aggiungendoli come amici, e scambiarsi messaggi, anche via chat, incluse le notifiche automatiche quando questi aggiornano i propri profili.

Inoltre gli utenti possono fondare e unirsi a gruppi per condividere interessi in comune con altri utenti, organizzati secondo il luogo di lavoro, la scuola, l’università o altre caratteristiche, condividere contenuti multimediali ed utilizzare varie applicazioni presenti sul sito.

Per personalizzare il proprio profilo l’utente può caricare una foto, chiamata immagine del profilo, con la quale può rendersi riconoscibile.

Può inoltre fornire ulteriori informazioni, come il comune di nascita (esempio: Città natale: Roma) e quello di residenza (esempio: Vive a Milano), la scuola frequentata, il proprio datore di lavoro, l’orientamento religioso e quello politico, la propria situazione sentimentale e molte altre.

Il 1º febbraio 2012 Facebook presenta alla SEC i documenti per l’offerta pubblica di vendita e il conseguente collocamento in borsa, avvenuto nel mese di maggio 2012.

Storia di Facebook

Nel gennaio 2004 Zuckerberg cominciò a programmare un nuovo sito web, che vide la luce il 4 febbraio 2004, anche grazie all’aiuto di Andrew McCollum, che contribuì alla programmazione, e a Eduardo Saverin, che ne curò gli aspetti aziendali.

Il sito era raggiungibile all’indirizzo thefacebook.com. Sei giorni dopo altri tre studenti di Harvard, Cameron e Tyler Winklevoss e Divya Narendra, accusarono Zuckerberg di averli truffati, in quanto avrebbe promesso loro di aiutarli a creare un servizio di rete sociale chiamato “HarvardConnection.com” mentre era intenzionato a rubargli l’idea per creare un sito concorrente.

L’accusa si tradusse successivamente in una causa legale.

Per la fine del mese di febbraio, più della metà della popolazione universitaria di Harvard era registrata al servizio.

A quel tempo, Zuckerberg fu aiutato anche dal grafico Dustin Moskovitz e da Chris Hughes per la promozione del sito e nel marzo 2004 Facebook si espanse all’Università di Stanford, allaColumbia University e all’Università Yale.

Ad aprile del 2004 il servizio si allargò al resto della Ivy League, al MIT, alla Boston University e al Boston College.

Fu poi la volta di altri istituti negli Stati Uniti e in Canada.

A metà del 2004 fu fondata la corporation Facebook, Inc.. L’imprenditore Sean Parker, che fino ad allora era stato un consigliere informale per Zuckerberg, ne divenne presidente.

A giugno 2004, terminato l’anno accademico, Zuckerberg e Moskovitz si trasferirono a Palo Alto in California con McCollum, che aveva seguito uno stage estivo alla Electronic Arts.

Affittarono una casa vicino all’Università di Stanford dove furono raggiunti da Adam D’Angelo e da Parker.

A fine mese ricevettero il primo finanziamento, dal co-fondatore di PayPalPeter Thiel.

Tra aprile e agosto del 2005 venne registrato il dominio attuale, facebook.com, per la cifra di 200.000 dollari.

Col tempo, persone con un indirizzo di posta elettronica con dominio universitario (per esempio .edu, .ac.uk ed altri) acquisiscono i diritti per diventare utenti.

Il 27 febbraio 2006 il servizio fu aperto anche ai licei e ad alcune grandi compagnie, tra cui Apple e Microsoft.

Dal 26 settembre 2006 chiunque abbia più di 13 anni può parteciparvi.

Dal settembre 2006 al settembre 2007 la posizione nella graduatoria del traffico dei siti è passata, secondo Alexa, dalla sessantesima alla settima posizione.

Dal luglio 2007 figura nella classifica dei 10 siti più visitati al mondo ed è il sito numero uno negli Stati Uniti per foto visualizzabili, con oltre 60 milioni di immagini caricate settimanalmente.

Nell’ottobre 2007 Microsoft annuncia di aver acquistato una quota dell’1,6% per 240 milioni di dollari e un gruppo di investitori russi compra il 2% per 200 milioni.

Il valore totale del sito, secondo la stima di Microsoft, era quindi di 15 miliardi, valore successivamente smentito e corretto in 3,7 miliardi di dollari nel 2009.

L’accordo per l’acquisto includeva il diritto da parte di Microsoft di inserire banner pubblicitari sul sito. Ad ottobre 2008 Facebook annuncia l’intenzione di stabilire il centro direzionale internazionale a Dublino.

Del settembre 2009 è l’annuncio che il bilancio di Facebook era in positivo per la prima volta. A inizio 2010 l’azienda è stata valutata a 14 miliardi di dollari.

Nel novembre 2010, secondo la piattaforma di scambio di titoli SecondMarket, Inc., una compravendita privata di azioni Facebook ne stimava il valore totale in 41 miliardi di dollari, terzo in ordine di grandezza tra i siti internet dopo Google e Amazon.

Il 3 gennaio 2011, Goldman Sachs investe in Facebook 450 milioni di dollari, valutando il valore totale in 50 miliardi di dollari.

In Italia si è registrato un boom di presenze nel 2008: nel mese di agosto si sono contate oltre un milione e trecentomila visite, con un incremento sull’anno prima del 961%; il terzo trimestre ha poi visto l’Italia in testa alla lista dei paesi con il maggiore incremento del numero di utenti (+135%).

Secondo i dati forniti da Facebook e raccolti nell’Osservatorio Facebook, gli utenti italiani nel mese di novembre 2011 sono 21 milioni, di cui 13 milioni si collegano ogni giorno.

Coloro che accedono mensilmente da dispositivo mobile sono 7,5 milioni.

Il traffico su Facebook è cresciuto a un ritmo sostenuto, fino a superare per una settimana, nel marzo 2010, il motore di ricerca Google per numero di visite negli Stati Uniti.

A marzo 2011 è stato reso noto che Facebook rimuoveva profilo personali al passo di circa 20.000 al giorno a causa di varie infrazioni, tra cui spam, contenuti non permessi ed età più bassa del minimo consentito

Nel 2011 l’azienda prende spunto da molte caratteristiche introdotte dal suo nuovo rivale Google+ (in risposta al social network di Google), tra cui ad esempio:

  • la traduzione automatica del linguaggio dei post in bacheca;
  • la possibilità di condividere dall’applicazione per dispositivi mobili.

A marzo 2012 Facebook annuncia il lancio di App Center, un negozio online per dispositivi mobili, dedicato alle applicazioni per connettersi a Facebook.

Il 9 aprile 2012 Facebook ha acquistato Instagram per 1 miliardo di dollari.

Facebook, Inc. ha tenuto un’offerta pubblica di vendita il 17 maggio 2012, in cui è stato negoziato il prezzo di 38 dollari ad azione, portando il valore totale della compagnia a 104 miliardi di dollari, il più alto mai registrato per il debutto di una compagnia sul mercato.

Il 1º giugno 2012 Facebook ha promosso una votazione riguardante la nuova Dichiarazione dei diritti e delle responsabilità e la Normativa sull’utilizzo dei dati, in cui era possibile scegliere i vecchi documenti del 2011 oppure i nuovi del 2012.

La votazione si chiuderà l’8 giugno e se avranno votato più 300 milioni di utenti sarà vincolante.

Funzionamento

Il sito è gratuito per gli utenti e trae guadagno dalla pubblicità, inclusi i banner. Molti analisti invece sostengono che i ricavi monetari di Facebook non sono così elevati rispetto alle potenzialità di un servizio di rete sociale, aggirandosi intorno ai 230 milioni di dollari nel 2009.

Infatti solo nel 2009, dopo 5 anni dalla sua nascita, il portale è riuscito a chiudere il primo bilancio in attivo.

I ricavi commerciali derivanti dalla pubblicità riescono a coprire solo in parte i costi fissi di gestione del sito (archiviazione, server, ecc.) tanto da rendere necessario l’apporto dei soci (tra cui l’1,6% di Microsoft).

Per migliorare la raccolta pubblicitaria Facebook aveva implementato Beacon, un sistema in grado di tracciare l’attività degli utenti su siti esterni convenzionati, in particolare le loro abitudini di acquisto online, consentendo pubblicità mirate e permettendo agli utenti di condividere tali attività sul News Feed dei propri amici.

Beacon fu lanciato il 6 novembre 2007 con 44 siti partner. Il servizio divenne oggetto di una class action per la sua natura invasiva per la privacy, e venne perciò sospeso a settembre del 2009.

Profilo personale

Gli utenti creano profili che spesso contengono fotografie e liste di interessi personali, scambiano messaggi privati o pubblici.

Possono creare e prendere parte a “Gruppi”, in cui si condividono interessi, e a “Pagine” legate a cose o persone che gli piacciono.

Secondo TechCrunch, “circa l’85% degli studenti dei college ha un profilo sul sito. Di quelli che sono iscritti il 60% accede al sito quotidianamente.

Circa l’85% almeno una volta la settimana, e il 93% almeno una volta al mese”.

Secondo Chris Hughes, il portavoce per Facebook, “Le persone passano circa 19 minuti al giorno su Facebook”.

Gli iscritti a Facebook possono scegliere di aggregarsi a una o più reti, organizzate per città, posto di lavoro, scuola e religione.

Funzionalità

Dal 2006 è attivo sulla homepage del profilo personale il News-feed, un aggregatore che mostra in successione gli aggiornamenti propri e degli amici.

Inizialmente questo sistema ha ricevuto delle critiche da parte degli utenti, secondo alcuni i news-feed includevano molte informazioni sgradite e irrilevanti, secondo altri metteva troppo in risalto informazioni personali e potenzialmente sensibili (come il cambiamento della situazione sentimentale, la partecipazione ad eventi e le conversazioni con altri utenti).

In risposta a queste critiche è stata data la possibilità di scegliere che tipo di informazioni condividere automaticamente e con chi.

Oggi è infatti possibile raggruppare gli amici in categorie e scegliere con quali categorie condividere certe informazioni (come cambiamenti del profilo, post sulla bacheca e l’aggiunta di nuovi amici).

Una delle applicazioni più utilizzate su Facebook è quella delle Foto, dove gli utenti possono caricare un numero illimitato di album di immagini (a differenza di altri servizi di condivisione di immagini come Photobucket e Flickr).

Il solo limite è nel numero massimo di 200 foto per album.

Le impostazioni della privacy possono essere cambiate per ogni album, limitandone o meno la visione a certi utenti.

Un’altra caratteristica delle Foto è la funzione del tag, con la quale si appone un'”etichetta” su un’immagine segnalando chi è presente nella foto e creando un link al suo profilo se si tratta di un altro utente Facebook.

In questo modo si crea automaticamente, per ogni profilo, una raccolta di foto in cui quell’utente è stato taggato.

Facebook offre diversi servizi di messaggistica privata.

È inviare privatamente dei messaggi ad altri utenti, se le impostazioni della privacy lo consentono.

Ad aprile 2008 è stata lanciata l’applicazione Chat per scambiare messaggi in tempo reale con gli amici collegati al loro profilo Facebook.

Il 15 novembre 2010 è stato annunciato un nuovo servizio integrato di gestione dei messaggi.

Tramite una sola applicazione è ora possibile gestire contemporaneamente messaggi sms, chat, email e normali messaggi, e regolare le impostazioni della privacy.

La funzione Note, introdotta nell’agosto 2006, permette agli utenti di pubblicare scritti e articoli in maniera simile a un blog.

Sono attive le funzioni di tag e di inserimento immagini.

Dal maggio 2007 su Facebook è disponibile il Marketplace, che consente agli utenti di inserire gratuitamente annunci che risultano visibili solo da utenti presenti nella stessa rete.

Nel giugno 2009 è stata introdotta la funzionalità username, che rende i profili accessibili tramite indirizzi semplificati, come ad esempio “http://www.facebook.com/facebook“, invece del precedente formato “http://www.facebook.com/profile.php?id=20531316728“.

Il 21 aprile 2010 è stato lanciato il tasto Mi piace, con il quale gli utenti possono esprimere apprezzamento su dei singoli contenuti.

Dall’aprile 2011 la chat è stata arricchita da una funzione per effettuare chiamate vocali, che permette anche di lasciare messaggi in una segreteria vocale.

Il 6 luglio 2011 è stato lanciato il servizio di videochiamate che utilizza la tecnologia di Skype.

Oltre alle attività di servizio di rete sociale, sono state sviluppate numerosi videogiochi gratuiti che hanno coinvolto milioni di utenti.

Tra questi ci sono FarmVille, sviluppato dal produttore di software Zynga, che ha raggiunto 11 milioni di utenti attivi (cioè non occasionali) quotidianamente; sempre di Zynga, Mafia Wars è arrivato a 5 milioni di utenti, mentre Pet Society, sviluppato da Playfish, è stato classificato come l’applicazione Facebook più popolare nell’aprile 2009.

Da dicembre 2010 sono presenti anche due nuovi giochi prodotti da Square Enix:Knights of the Crystals e Chocobo’s Crystal Tower. Altri giochi di Facebook sono Empire & Allies, CastleVille, CityVille, Bejeweled Blitz, Top Eleven e The Sims Social.

Il 9 gennaio 2013 il CEO del social network in blu ha fissato un evento stampa che si svolgerà il 15 gennaio 2013 alle 19 ora italiana affermando di voler introdurre una novità.

Gli unici rumors, dato che non si sa nulla sull’argomento della conferenza, sono la presentazione del “Facebook Phone”, uno smartphone progettato per il social network, oppure l’introduzione di alcune novità per quanto riguarda la vendita di veri e propri doni già introdotta nel mese di settembre.

Dispositivi mobili

Facebook integra alcune delle suddette funzionalità sulle sue applicazioni per dispositivi mobili, come la possibilità di caricare contenuti, di ricevere e rispondere ai messaggi, di mandare e ricevere “poke” (cioè richiamare l’attenzione di un utente toccandolo simbolicamente sulla spalla), scrivere sulla bacheca degli utenti o semplicemente la possibilità di navigare sul sito.

Piattaforma tecnologica

Le pagine Facebook sono scritte in linguaggio PHP e sono poi tradotte in C++ dal convertitore HipHop for PHP, ideato appositamente da Facebook.

Grazie a questa tecnologia, Facebook dichiara un risparmio del 50% nell’utilizzo del processore dei propri server.

Facebook è programmato come un’unica applicazione.

Secondo quanto dichiarato dall’ingegnere di Facebook Chuck Rossi, Facebook consiste in 1,5 GB di codice binario che viene distribuito ai server tramite il protocollo BitTorrent.

Nell’autunno 2008 è stato reso disponibile un sistema di API ideato per l’integrazione di siti esterni.

Usando Connect è possibile collegare il proprio account Facebook con un account su un sito internet esterno utilizzato per inserire commenti o articoli, come ad esempio un blog.

In pratica è possibile utilizzare le proprie credenziali di Facebook per accedere in tutti i siti che supportano Facebook Connect.

Dal punto di vista tecnico Connect è reso possibile da una particolare libreria Javascript rilasciata da Facebook e da una estensione del linguaggio XHTML chiamata FBML.

Questo linguaggio permette agli sviluppatori di inserire sulle pagine di un sito degli elementi dinamici come pulsanti, form, elementi multimediali e molto altro.

Il linguaggio FBML viene poi parsato dallo stesso Facebook che “traduce” i suoi tag speciali con l’HTML e gli stili necessari. Le pagine Facebook utilizzano inoltre la tecnologia AJAX.

Facebook è paragonabile a Myspace, ma una significativa differenza tra le due piattaforme è il livello di personalizzazione della pagina personale. Mentre Myspace consente agli utenti di arricchire lo stile delle pagine usando i linguaggi HTML e CSS, su Facebook è possibile inserire solo del testo.

Il 20 luglio 2008 Facebook ha introdotto un rinnovamento sull’interfaccia utente detto Facebook Beta, che è stato applicato gradualmente in tutte le pagine del sito.

I profili personali sono stati suddivisi in schede secondo le diverse sezioni (“Amici”, “Foto”, eccetera…) e in generale la grafica è diventata più minimale.

Privacy e controversie

Inizialmente non esisteva un controllo granulare di chi-può-vedere-cosa. Dal 31 maggio 2010 è possibile applicare le impostazioni di privacy anche ai singoli post o ai singoli commenti.

Inoltre è stata estesa la lista dei “livelli”, aggiungendo anche un livello personalizzato.

Diversi problemi sono sorti riguardo l’uso di Facebook come un mezzo di controllo e come miniera di dati.

  • Solo Io
  • Amici
  • Amici di amici
  • Amici e Reti
  • Tutti
  • Personalizzato

Questi livelli possono essere impostati indipendentemente per ciascuna “categoria” di informazioni del profilo, sui singoli dati (commenti, post, ecc.) oppure sui dati personali (come “Data di nascita”, “Orientamento politico e religioso”, “Istruzione e lavoro”, ecc.).

Agendo opportunamente sulle impostazioni del profilo è quindi possibile limitare la diffusione dei dati personali.

In particolare nel menù Impostazioni è disponibile la voce Impostazioni sulla privacy, dalla quale sarà possibile agire sulle categorie di dati tra cui: profilo, ricerca, notizie e bacheca.

Naturalmente tali impostazioni non limitano l’accesso ai dati di coloro cui i gestori del sito attribuiscono privilegi di amministrazione, per motivi di ordine e legali.

Inizialmente Facebook consentiva solamente di disattivare l’account in modo che non fosse più visibile nel sito e nei motori di ricerca.

A partire dal 28 febbraio 2008 l’utente ha anche a disposizione un’opzione che cancella in modo permanente i suoi dati dai server del sito.

Tuttavia si pensi a foto e video ripresi nella bacheca di altri utenti, o alle foto pubblicate da terzi in cui un utente è taggato, al limite dietro suo consenso.

Una volta taggato in una foto, non appena un testo foto o video è stato copiato nel profilo di altri utenti, questo materiale non può essere eliminato (se non espressamente richiesto), anche quando l’interessato decide di cancellare il suo profilo.

La cancellazione è limitata al profilo personale, ma non a tutto ciò che è stato copiato da terzi o condiviso con altri.

Inoltre, i contenuti pubblicati dagli iscritti (come fotografie, video e commenti) sono proprietà del sito.

Caso raro in giurisprudenza, il sito si dichiara proprietario, ma non responsabile dei contenuti, e, come molti altri content provider, rifiuta di censurare o limitare la visibilità di contenuti e gruppi, respinge le critiche in merito a contenuti diffamatori, che istigano a reati penali, e alle richieste di risarcimento dei danni che possono essere mosse in tali circostanze.

Secondo il codice italiano della protezione dei dati personali, la proprietà dei contenuti non estingue i diritti soggettivi degli interessati.

Se questi sono autori dei contenuti, il passaggio di proprietà al sito al momento della pubblicazione, di nuovo, estingue i diritti inerenti al copyright, non quelli soggettivi.

L’utente ha il diritto di ottenere informazioni in merito al trattamento dei propri dati personali, dei soggetti terzi che ne sono entrati in possesso, di vietarne la pubblicazione, e di rendere definitiva la propria cancellazione dal sito, che è tenuto a distruggere ogni copia dei dati personali in suo possesso, e a divulgare la richiesta di cancellazione ai soggetti terzi che per suo tramite abbiano acquisito tali dati.

Le critiche e l’attenzione internazionale di diversi soggetti sia nazionali che associazioni hanno portato a maggio 2010 ad una revisione della gestione della privacy che aumenta leggermente la granularità ma con certezza la precisione e la chiarezza con cui l’utente con l’uso e la visione di una sola griglia accederà all’impostazione dei diversi aspetti della privacy del proprio profilo.

Due studenti del Massachusetts Institute of Technology riuscirono a scaricare più di 70.000 profili di Facebook utilizzando uno shell script automatico.

Nel maggio del 2008 un programma della BBC, Click, mostrò che era possibile sottrarre i dati personali di un utente e dei suoi amici con delle applicazioni malware.

Facebook è inoltre soggetto al fenomeno di creazione di falsi profili di personaggi famosi e non solo.

Numerosi i casi in Italia di violazione della privacy per la pubblicazione di foto “scomode”.

Il 14 maggio 2009 vengono scoperte foto di pazienti intubati visibili sul sito; l’infermiera che le aveva pubblicate non si era accorta che fossero alla portata di tutti.

Alla fine di ottobre 2009 su Facebook, sono comparse ingiurie ed insulti da parte di un gruppo di discussione intitolato “Uccidiamo Berlusconi”.

In seguito al risalto mediatico il ministro Maroni ha promesso di denunciare chi è intervenuto e di procedere penalmente.

Sul sito sono stati creati vari gruppi che in passato hanno inneggiato a Salvatore Riina e al massacro di Srebrenica.

Nel maggio 2010 il Pakistan e l’Afghanistan hanno deciso l’oscuramento di Facebook e YouTube per evitare la diffusione delle caricature di Maometto.

Nel settembre 2010 su Facebook, dopo uno studio effettuato nei laboratori di sicurezza di AVG Technologies, sono state riscontrate circa 11.000 pagine infette che mettono a rischio gli utenti, esposti soprattutto al furto di identità.

Recentemente Facebook ha attivato l’opzione di riconoscimento facciale delle immagini pubblicate dagli utenti, causando alcune polemiche per la privacy.

Dinamiche sociali

In un articolo pubblicato sul suo blog personale, il sociologo ingaggiato da Facebook, Cameron Marlow, ha reso pubblici i dettagli di uno studio condotto dal Facebook Data Team sulle dinamiche sociali degli utenti iscritti.

Lo scopo della ricerca era stabilire se Facebook accresce la dimensione della rete personale di un individuo.

Per rispondere a questa domanda, nello studio si è creata una distinzione qualitativa degli amici su Facebook in tre sottogruppi interni ad un gruppo generale.

Il gruppo generale si riferisce a “tutti gli amici”, ovvero alla lista di persone che un utente di Facebook considera come tali.

Secondo Marlow, la parola “amici” in questo contesto appare un po’ ambigua.

Alla curiosità di utenti che gli chiedono di valutare se hanno abbastanza amici su Facebook o se ne hanno pochi, il sociologo risponde che il linguaggio usato potrebbe indurre a commettere un errore.

Infatti, quelli che nel linguaggio in uso vengono considerati come amici, potrebbero essere più semplicemente persone che un individuo ha incontrato ad un certo punto della sua vita.

Riguardo al numero di questa rete sociale, i dati ufficiali di Facebook riproposti da Marlow parlano di 120 amici per l’utente medio.

Lo stesso Marlow afferma però che questo dato può non essere significativo per stimare la dimensione della rete sociale di una persona.

Innanzitutto perché il sito è ancora abbastanza giovane e il numero di iscritti è ancora relativamente basso.

Il che vuol dire che non tutte le persone conosciute da un utente registrato su Facebook potrebbero essere iscritte al sito e questo minerebbe la possibilità dell’individuo di costruire una sua rete sociale corrispondente a quella che potrebbe costruire con altri mezzi.

A tal proposito, Marlow cita un altro strumento di stima della dimensione della rete sociale di un individuo: è stato citato dallo scrittore Malcolm Gladwell all’interno del suo libro Il punto critico e fa riferimento agli studi di Peter Killworth e dei suoi collaboratori.

Questi studiosi usarono una lista di nomi e cognomi presi da un elenco telefonico e stimarono la dimensione della rete sociale di un individuo sulla sua capacità di riconoscere i nomi presenti nella lista come persone incontrate.

Questo metodo condusse a una stima della rete sociale maturata durante la vita che va da 300 fino a 3000 persone.

I dati relativi ai tre sottogruppi sono stati elaborati monitorando per 30 giorni l’attività di un campione casuale di utenti.

Le attività monitorate fanno riferimento ai tipi di comunicazione che Facebook mette a disposizione dell’utente per mantenersi in contatto con gli appartenenti della sua rete sociale personale.

Il primo sottogruppo fa riferimento alle relazioni mantenute in maniera passiva con l’uso di strumenti quali il News Feed o gli RSS readers.

La ricerca include questi strumenti tecnologici nella gestione della relazione perché, a detta di Marlow, il consumo di contenuti fruibili con questi mezzi può tramutarsi in altre forme di comunicazione.

Ad esempio, se la ex compagna di classe alle scuole superiori pubblica su Facebook una foto del suo nuovo cagnolino, si può cliccare sulla notizia, dare un’occhiata a molte altre foto e scoprire tra l’altro che si è fidanzata, o ha avuto un bambino, e ciò potrebbe indurre a mettersi in contatto con lei.

Nel misurare la dimensione di questo sottogruppo, i ricercatori si sono limitati a registrare il numero di amici che un utente ha visitato con una certa ripetizione, più di due volte nell’arco dei trenta giorni della ricerca, cliccando sul News Feed o visualizzando il profilo.

Il secondo sottogruppo viene costruito attorno all’uso di tecnologie di comunicazione a “senso unico” (one-way communication) come lo sono i commenti alle foto, ai messaggi di status o post sul wall di un amico.

Il terzo sottogruppo viene costruito attorno all’uso di tecnologie basate su una comunicazione reciproca, o su uno scambio attivo di informazioni tra due persone: chat o scambio di messaggi tramite posta elettronica.

La tendenza generale degli utenti, indistintamente considerati sul piano sessuale, dimostra che la gente su Facebook usa le varie forme di comunicazione manifestando un impegno diverso a seconda del tipo di tecnologia.

Rapportato alla propria lista di amici, gli utenti si mantengono informati (cliccando sul News Feed o sull’RSS, oppure visitando il profilo) con un numero meno cospicuo di amici.

Il numero scende ulteriormente quando si tratta di usare una tecnologia a “senso unico” (commenti a foto o a messaggi di status, o post sul wall), fino a ridursi ulteriormente con l’uso di una comunicazione reciproca (chat e scambio di e-mail).

I dati in base al tipo di sesso dell’utente dimostrano una diversa propensione dei due sessi nell’uso di queste tecnologie: le donne sarebbero mediamente più attive degli uomini nel loro uso.

Quando gli utenti, maschi e femmine, hanno una lista di 500 amici, le donne in media si tengono informate per mezzo di RSS, News Feed e visite al profilo di 47 componenti della loro rete sociale; gli uomini, d’altro canto, utilizzano questa tecnologia per mantenersi informati in media su 39 dei loro 500 amici su Facebook.

Le donne utilizzano la comunicazione a “senso unico” con in media 26 dei loro amici; gli uomini con 17.

L’uso della tecnologia reciproca (chat e scambio di messaggi tramite e-mail) è ancora più ridotto: rispetto ai 500 amici le donne s’intrattengono tramite questo tipo di comunicazione con 16 amici, gli uomini con 10.

Gli utenti con una lista composta da 150 amici costruiscono attorno a sé un sottoinsieme di rapporti tramite Facebook che per le donne è in media di 22 su 150 per le relazioni mantenute, 19 per gli uomini; le donne inviano le comunicazioni a “senso unico” a 11 dei loro 150 amici, gli uomini a 7; 7 su 150 sono in media le comunicazioni reciproche con gli amici per le donne, 5 per gli uomini.

Ti consiglio questi libri su Facebook

Fonte Wikipedia

Definizione di social media

Social media, in italiano media sociali, è un termine generico che indica tecnologie e pratiche online che le persone adottano per condividere contenuti testuali, immagini, video e audio.

I professori Andreas Kaplan e Michael Haenlein hanno definito i media sociali come un gruppo di applicazioni Internet basate sui presupposti ideologici e tecnologici del Web 2.0 che consentono la creazione e lo scambio di contenuti generati dagli utenti.

I social media rappresentano fondamentalmente un cambiamento nel modo in cui la gente apprende, legge e condivide informazioni e contenuti.

In essi si verifica una fusione tra sociologia e tecnologia che trasforma il monologo (da uno a molti) in dialogo (da molti a molti) e ha luogo una democratizzazione dell’informazione che trasforma le persone da fruitori di contenuti ad editori.

Sono diventati molto popolari perché permettono alle persone di utilizzare il web per stabilire relazioni di tipo personale o lavorativo.

I social media vengono definiti anche user-generated content(UGC) o consumer-generated media (CGM).

Differenze rispetto ai media industriali

I social media sono diversi dai media industriali come giornali, televisione e cinema.

Mentre i social media sono strumenti relativamente a basso costo che permettono a chiunque (anche soggetti privati) di pubblicare ed avere accesso alle informazioni, i media tradizionali richiedono cospicui investimenti finanziari per pubblicare informazioni.

Tra le voci di spesa dei media industriali possiamo annoverare ad esempio la pressa tipografica o le autorizzazioni statali.

I media industriali sono comunemente definiti “tradizionali”, “broadcasting”, o “mass media”.

Una caratteristica che accomuna social media e media industriali è la capacità di ottenere un’audience sia vasta che ridotta; sia il post di un blog che una trasmissione televisiva possono raggiungere milioni di persone oppure nessuno.

I parametri che aiutano a descrivere le differenze tra i due tipi di media variano a seconda del tipo di analisi.

Alcuni di questi parametri sono:

bacino d’utenza: sia i social media che i media industriali offrono a ciascuno l’opportunità di ottenere un’audience globale.

accessibilità: i mezzi di produzione dei media industriali sono generalmente di proprietà privata o statale; gli strumenti dei social media sono disponibili da ciascuno a un costo contenuto o gratuitamente.

fruibilità: la produzione di mezzi industriali richiede in genere formazione e competenze specialistiche; i social media invece no, o in qualche caso reinventano le competenze, cosicché ciascuno può gestire i mezzi di produzione.

velocità: il tempo che intercorre tra le informazioni prodotte dai media industriali può essere lungo (giorni, settimane o anche mesi) in confronto al tempo impiegato dai social media (che hanno la possibilità tecnica di reagire istantaneamente, solo la mancanza di reattività dei partecipanti può comportare ritardi).

Poiché ormai anche i media industriali si avvalgono degli strumenti dei social media, questo potrebbe non essere più un tratto distintivo.

permanenza: una volta creati, i mezzi industriali non possono essere più modificati (una volta stampato e distribuito, l’articolo di una rivista non può più ricevere modifiche), mentre i social media possono essere cambiati quasi istantaneamente mediante commenti e modifiche.

Un’ulteriore distinzione riguarda la responsabilità.

I media industriali sono tenuti a rendere conto alla società della qualità dei contenuti e dei risultati delle loro attività in termini di interesse pubblico, responsabilità sociale ed indipendenza editoriale.

I social media non hanno altrettante responsabilità in merito alle loro attività editoriali.

Da un lato i social media possono sembrare abbastanza liberi da conflitti di interessi, ma d’altro canto il loro valore economico può essere minacciato da fenomeni in ascesa come Public Relations 2.0, network pubblicitari e pubblicità conto terzi.

La comunità dei media è un ibrido interessante.

Anche se community-owned, ossia posseduti dalla comunità, alcuni media si avvalgono di professionisti, ed altri di dilettanti.

Essi utilizzano sia l’ambito dei social media che quello dei mezzi tradizionali.

Nel 2006, Yochai Benkler ha analizzato molte di queste differenze e le loro implicazioni in termini di libertà economica e politica.

Benkler, come molti accademici, usa il neologismo network economy o “network information economy” per descrivere le più rilevanti caratteristiche economiche, tecnologiche e sociali di quelli che chiamiamo “social media”.

Divulgazione delle informazioni e interazione umana

I social media dipendono principalmente dalle interazioni tra persone, come la discussione e il dialogo volti a costruire una sorta di sentimento condiviso attraverso l’utilizzo della tecnologia come canale.

I servizi offerti dai social media stimolano l’uso dell’intelligenza sia induttiva che deduttiva da parte delle persone.

Reclami e denunce si prestano a rapide generalizzazioni a causa delle modalità con le quali le affermazioni diffuse possono essere postate e visualizzate da tutti.

La velocità di comunicazione, l’ampia diffusione e l’incisività, e la possibilità di vedere come le parole costruiscano un caso, sollecitano l’uso della retorica.

Il metodo della persuasione viene utilizzato frequentemente come mezzo per convalidare o autenticare le affermazioni e le parole delle persone: la retorica è quindi parte importante del linguaggio dei social.

Per alcuni aspetti, i social media non hanno limiti: non c’è un numero fisso di pagine o di ore.

I lettori possono partecipare lasciando commenti, messaggi istantanei o anche pubblicando articoli per conto proprio.

Nei social media si è registrata una generale resistenza agli interventi di marketing.

Più rilevante si è quindi rivelato il concetto di social authority, relativo alla capacità – costruita attraverso interventi continui, utili, competenti e genuini – di influenzare le opinioni in specifiche aree di interesse.

Descrizione

I social media possono assumere differenti forme, inclusi Forum Internet, message board, Blog, wikis, podcast, immagini e video.

Le tecnologie includono blogs, condivisione di immagini,videoblogs, wall-postings, email, instant messaging, music-sharing, crowdsourcing e voice over IP, per citarne solo una lista parziale. Esempi di applicazione del concetto di social media sono:

  • deviantArt (art sharing),
  • Digrii (social networking),
  • Facebook (social networking),
  • Flickr (photo sharing),
  • Google Groups (reference, social networking),
  • Last.fm (personal music), YouTube (social networking e video sharing),
  • MySpace (social networking),
  • Nuto (social networking per i medici italiani),
  • Pheed (ogni forma di contenuto digitale, tra cui testi, foto, clip audio, note vocali, video e trasmissioni in diretta)
  • Second Life (realtà virtuale),
  • sevenload (condivisione video e foto, social networking e Web-TV),
  • Twitter (social networking e microblogging)
  • Wikipedia (reference),
  • Social Play (Condivisione di notizie sociali, blogging, lettura sociale)
    • altri siti microblogs sono Jaiku
    • Pownce.

Molti di questi servizi possono essere integrati tramite piattaforme come Mybloglog, una società di Yahoo, e Plaxo.

Esempi di social media

Citiamo qui allora alcuni esempi fortemente significativi proposti da Don Tapscott nel suo testo Wikinomics.

Tapscott parla di Wikinomics come nuova economia della collaborazione e della co-creazione di massa dei contenuti.

In questo senso la definizione di Wikinomics è ampiamente assimilabile a quella di un sistema economico caratterizzato dall’utilizzo dei Social da parte di aziende, organizzazioni e consumatori grazie all’impiego di strutture organizzative e tecnologie dedicate a sistemi di collaborazione di massa e di co-creazione dei contenuti.

La definizione stessa di Social Media è a volte sfuggente, ed a volte considerata più vicina al gergo di marketing che a solide teorie economiche

Per questa ragione può essere difficile trovare esempi concreti, specie per quanto riguarda il mondo delle aziende e delle organizzazioni.

Linux, il sistema operativo nato e sviluppatosi grazie alla collaborazione volontaria di migliaia di sviluppatori nel mondo.

La stessa Wikipedia, enciclopedia alimentata costantemente dal flusso di conoscenza e dal lavoro dei suoi collaboratori volontari.

Goldcorp: azienda del settore minerario che nel 2000 ha lanciato la Goldcorp Challenge destinata alla ricerca (e allo sfruttamento) di nuove aree obiettivo da esplorare per la ricerca di filoni auriferi.

Anche in Italia esempi di Social – nell’accezione di Impresa collaborativa – non mancano, sia di generazione nativa in Italia, sia create come filiali o divisioni di aziende già esistenti in altri contesti.

Fonte: Wikipedia