Nuove tecnologie della comunicazione
- Testo
- Bibliografia124
- Links4
- Voci correlate
Autore: Giuseppe Fortunato
Le n.t.d.c. comprendono un insieme di dispositivi elettronici, i quali grazie alla capacità di rappresentare ogni tipo di informazione come una sequenza di bit operano in maniera aggregata e integrata, sono tra loro sempre meno distinguibili e consentono all’utilizzatore nuovi spazi di intervento ( Convergenza al digitale). In particolare ci si riferisce ai lettori e ai registratori di dischi ottici (comprese macchine fotografiche e telecamere), ai satelliti, alle reti informatiche, agli elaboratori, ai commutatori digitali, alle apparecchiature a fibre ottiche, ai congegni laser, alla televisione a grande schermo e ad alta definizione, alle combinazioni di tutti questi mezzi con la telefonia fissa e mobile, alla riproduzione elettrostatica e ai nuovi metodi di stampa.
Le principali categorie che guidano l’evoluzione dell’intero settore sono: la microelettronica, l’ hardware, il software, le telecomunicazioni. Questi comparti sono correlati e interdipendenti, ma possono interagire attraverso opportune architetture, alcune delle quali sono specifiche, mentre altre sono onnicomprensive.
Altra innovazione è quella delle tecniche olografiche ( Olografia) utilizzate nell’archiviazione ottica delle informazioni, grazie all’alta densità e all’alta velocità raggiungibili. Una promettente area di ricerca per la memorizzazione delle informazioni è costituita dalle memorie proteiniche: si basano su una proteina chiamata "bacteriorhodopsin", la cui molecola ha due differenti stati, che la possono far considerare simile a un flip-flop, un particolare circuito elettronico capace di funzionare come elemento di memoria binaria.
Si assiste alla larga diffusione dei microprocessori a 32 bit come CPU di base per i PC e all’adozione di microprocessori a 64 bit per workstation professionali e come base per tutti i sistemi di classe superiore. La differenza tra sistemi CISC (Complex Instruction Set Computing) e RISC (Reduced Instruction Set Computing) si va sempre più riducendo, dato che entrambe le architetture cercano di inglobare le migliori caratteristiche dell’altra. Sul mercato il predominio Intel incomincia a essere contrastato dai suoi principali concorrenti, AMD e Cyrix, anche se la stessa Intel ha dichiarato di essere in grado di portare le capacita’ dell’attuale Pentium da 5,5 milioni di transistor a 40 milioni.
La necessità di gestire dispositivi e applicazioni multimediali e la grafica tridimensionale, soprattutto in ambito PC, ha richiesto una revisione delle architetture CPU preesistenti. La Intel ha introdotto la tecnologia MMX capace di impaccare in un unico registro pixel multipli e di manipolarli con un unica istruzione ad hoc. In pratica il programmatore di sistema ha a disposizione 8 nuovi registri e 57 nuove istruzioni che gli consentono di attuare e gestire in maniera più efficace il video, i suoni e le animazione multimediali. MMX è indipendente dal sistema operativo usato e facilita l’aggiornamento dei preesistenti programmi, con miglioramenti prestazionali previsti tra il 50 e il 400%. Intel intende integrare la tecnologia MMX in tutte le architetture, analogamente a quanto fece nel passato con l’estensione delle istruzioni a 32 bit sulle CPU dell’epoca. In parallelo anche i principali concorrenti Intel hanno aggiornato le loro CPU nell’ottica multimediale, spesso con sistemi software compatibili alla tecnologia MMX, che al momento può essere considerato una sorta di standard.
Numerosi sono i prodotti e le continue innovazioni per l’elaborazione del segnale digitale (DSP, Digital Signal Processing) e microcontroller per dispositivi digitali, in particolare le console di video giochi, le macchine fotografiche e le videocamere, i ricevitori televisivi digitali, i controllori per la Tv via satellite, gli impianti hi-fi.
Per quanto riguarda le memorie, l’evoluzione è costante: oltre alle EPROM (Electrically Programmable ROM), alle EEPROM (Electrically Erasable Programmable Read-Only Memory), sempre più capaci per singolo chip e alle Solid-State Memory Card basate sullo standard PCMCIA, la diffusione più significativa riguarda le EDORAM (Extended Data Out Random Access Memory), le SDRAM (Synchronous Dynamic RAM), le CDRAM (Cache Dynamic Random Access Memory), ecc.
I sistemi di elaborazione hanno accresciuto il livello di affidabilità e disponibilità, registrando un accorciamento del tempo medio di vita, il costante aumento del passaggio da sistemi più grandi a sistemi più piccoli (di uguale capacità, ma con minori costi e software più recente) la crescente disponibilità di logiche e periferiche multimediali.
La novità più significativa è rappresentata dal fenomeno Internet-Intranet, che ha guidato l’evoluzione dei sistemi, indipendentemente dalle loro dimensioni e funzionalità, nella logica web. L’utilizzo di CPU CMOS per creare sistemi con un elevato grado di scalabilità, dal singolo PC ai grandi sistemi, si basa sulla possibilità di farli funzionare in parallelo: numerose sono le nuove tecniche adottate per parallelizzare più CPU. Queste tecniche includono logiche architetturali, bus ad alta velocità per interconnetterli, modalità d’uso delle periferiche e delle memorie, opportune funzionalità a livello dei sistemi operativi. Le modalità più usate sono MPP (Massively Parallel Processing) e SMP (Symmetric Multi Processing): con la prima logica ogni CPU ha la propria memoria, non esistono elementi condivisi e questo fatto garantisce un’elevata scalabilità; con la seconda logica, invece, le CPU condividono memoria, così da creare un’unica macchina virtuale capace di elaborare applicazioni senza alcuna modifica.
La grafica tridimensionale, la cosiddetta 3-D, assume un ruolo e una diffusione crescente, non solo nell’ambito delle workstation, dei PC specializzati e delle tipiche applicazioni quali CAD-CAM (CAD), animazioni, realtà virtuale, i più avanzati giochi elettronici, ma anche nelle tradizionali applicazioni di informatica individuale, quali editor grafici, fogli elettronici, programmi di presentazione, strumenti gestionali e di controllo. Tale diffusione è favorita dalla disponibilità, a bassi prezzi, di librerie software e dei coprocessori dedicati alla grafica e alla gestione del video, che fungono da acceleratori per la grafica 3-D. Le principali funzioni per il trattamento di un figura tridimensionale includono: l’aggiunta delle caratteristiche di superficie, la suddivisione della figura in poligoni, l’aggiunta di luci/ombre e della prospettiva. Tali funzioni sono suddivise tra la CPU e il coprocessore.
L’evoluzione degli hard disk e dei loro driver è continua, e consente un incremento della capacita’ di memorizzazione dei dischi di circa il 60% all’anno. Per poter mantenere tale tasso di crescita, l’obiettivo dei principali produttori è di aumentare la velocità e la capacità di memorizzazione per unità di superficie. Una ulteriore spinta ai sistemi di archiviazione ad alta capacità viene dalla concentrazione e dalla centralizzazione della memoria su opportuni sistemi ad alta capacità, che rende condivisibili le informazioni contenute a innumerevoli client, connessi direttamente alla rete, e non come periferica del sistema di elaborazione: NAS, Network Attached Storage, è il nuovo termine che indica questo processo, incrementato anche dai vari tipi di rete (Internet, Intranet, LAN, WAN).
Le linee di evoluzione dei CD sono due: da un lato l’incremento della velocità per i CD-ROM, dall’altro l’introduzione del DVD (Digital Versatile Disc). Il DVD costituisce il superamento e la convergenza funzionale, in un unico dispositivo, dei CD-audio e ROM, dei laser disc e dei videotape. L’attuale standard, promosso dal DVD Licenser Consortium, è la combinazione di due differenti proposte, l’MMCD (MultiMedia Compact Disc) e l’SD (Super Density). Il DVD considera due tipologie di prodotti, il DVD-Video, periferica della Tv, e il DVD-ROM, periferica di un PC. Sono previsti inoltre un DVD-Audio, quale periferica di un impianto stereo. Il formato video è l’MPEG-2 (MPEG); per il suono il formato di riferimento è l’LPCM (Linear Pulse Code Modulation), ma viene anche usato, oltre a MPEG-2, il Dolby Digital.
Le principali innovazioni per le stampanti riguardano il trattamento del colore, in particolare per le stampanti di desk top. Mentre nei monitor il trattamento del colore sullo schema si basa sul processo RGB, Red-Green-Blue, le stampanti utilizzano prevalentemente lo schema CMYK, Cyan-Magenta-Yellow-Black. Il tono del colore stampato sulla carta dipende dalla combinazione di questi quattro colori e, analogamente a quanto avviene con l’RGB, l’efficacia del processo dipende fortemente dall’implementazione hardware. Per ovviare ai problemi connessi con queste diverse modalità operative l’International Color Consortium (ICC) ha definito uno standard indipendente dalle piattaforme e dall’hardware, in modo da ridurre i problemi di calibrazione, cioè la gestione calibrata armonizzata dei colori dei monitor, degli scanner e quella delle stampanti. L’ICC ha definito un Color Management Framework che standardizza i formati di tutti i tipi di input, output e i profili.
Le principali innovazioni tecnologiche per i video si sono concentrate principalmente nella realizzazione di monitor con schermi più grandi a cristalli liquidi utilizzabili in particolare per i PC desktop. Fino a poco tempo fa le dimensioni degli schermi LCD era al massimo di 12.1", ora la tendenza è a 16.1". Il problema rimane quello del prezzo, ancora troppo alto per una larga diffusione di questi prodotti. Per i monitor ‘da parete’, con dimensioni variabili dai 20" ai 42" e oltre, la tecnologia usata è quella a plasma e sono infatti chiamati PDP (Plasma Display Panel): sono utilizzati per lo più per la Tv, anche ad alta risoluzione e digitale; esistono ancora problemi per disporre delle risoluzioni richieste a livello informatico (VSGA e SXGA), che dovrebbero a breve essere superati. In termini di innovazione, i tradizionali monitor a raggi catodici si sono evoluti sia nella fascia alta sia in quella bassa, in termini di prezzo e di prestazioni. Nella fascia alta sono comparse tecnologie per i monitor a colori che migliorano quelle precedenti, mentre nuovi standard sono stati emanati dalla VESA (Video Electronic Standard Association) per i monitor a raggi catodici, come l’aumento della frequenza verticale per avere una maggior risoluzione.
La revisione e il ripensamento degli attuali contesti applicativi sono stati accelerati dalle problematiche inerenti l’anno 2000, che hanno creato una significativa nicchia di mercato, in termini di prodotti e di servizi, basata per lo più sugli strumenti di riprogettazione e di modifica automatica di quelle parti di codice relative a operazioni con date che indicano l’anno con due sole cifre. I software di sistema e le utilities registrano interessanti novità per ciò che riguarda: la logica Internet/Intranet che sta parzialmente modificando quella precedente di client /server; l’evoluzione dei sistemi di sicurezza per il trasferimento di informazioni su reti pubbliche; il consolidamento e l’evoluzione del concetto di sistema aperto; una crescente ampia scalabilità tra piattaforme diverse. I prodotti sul mercato sono sempre più integrati, includendo nello stesso pacchetto il sistema operativo, un insieme di utilities e sofisticati sistemi di gestione.
Le logiche Internet/Intranet e quelle dei componenti software, basati sulle tecnologie a oggetti, hanno accelerato lo sviluppo dei pacchetti applicativi, anche per poter rispondere alla rapida evoluzione delle esigenze del business e degli utenti.
Il ciclo di vita degli applicativi si è drasticamente ridotto. La diffusione dei pacchetti integrati e la necessità di far convivere vecchi ambienti applicativi coi nuovi ha ulteriormente cambiato le logiche di approccio alla realizzazione del software, logiche che stanno trovando le prime attuazioni nei nuovi ambienti di sviluppo. Le basi comuni sono costituite dalla scelta di un ambiente a oggetti, dalla possibilità di riuso dei moduli, dall’indipendenza dalle piattaforme hardware, dalla scalabilità e portabilità dei moduli, dal visual programming, il supporto delle logiche e dei protocolli Internet, e in particolare dalla compatibilità coi più diffusi browser.
È interessante notare che, scontata l’indipendenza dalle piattaforme hardware, la battaglia tra i più grandi produttori sul mercato si sta giocando su due diversi approcci: da un lato si favorisce l’indipendenza dai sistemi operativi, ma ci si basa su un solo linguaggio, ad esempio Java, dall’altro si limitano i sistemi operativi, ad esempio quelli della Microsoft, ma si consente l’interoperabilità e l’integrazione di moduli scritti con linguaggi diversi e in ambienti di sviluppo diversi.
a) alta velocità per WAN: le reti di computer sono in grado di comunicare fra loro, benché diffuse su un’area molto vasta. Sonet, SDH e ATM sono le tecnologie che si stanno consolidando come leader del settore;
b) alta velocità per LAN: le reti di computer collegati tra loro, a livello di piccoli ambiti, possono condividere file e periferiche, come pure scambiarsi messaggi: si è consolidata la velocità di 100 Mb per secondo, si stanno diffondendo velocemente e si iniziano a offrire le prime LAN di 1 Gigabit per secondo;
c) il forte orientamento all’alta velocità ha portato alla diffusione di innumerevoli prodotti per l’accesso, lo switching e il routing;
d) la diffusione delle logiche Internet/Intranet ha di fatto imposto l’architettura e lo schema di indirizzamento TCP/IP, un protocollo sviluppato dal Dipartimento della Difesa statunitense per le comunicazioni tra calcolatori, ma anche questo ha subito e sta subendo innumerevoli miglioramenti;
e) lo sviluppo di nuovi sistemi per la gestione di reti, capaci di integrare architetture e tecniche di comunicazione eterogenee;
f) l’evoluzione dei browser principalmente su due fronti complementari: da un lato l’evoluzione delle pagine HTML da passive ad attive, capaci di gestire moduli locali o mobili scaricabili dai server, dall’altro l’introduzione delle cosiddette tecnologie push e di netcasting, per la diffusione di informazioni in logica broadcasting;
g) la comunicazione vocale su Internet e Frame Relay e l’integrazione tra sistemi telefonici e computer, CTI (Computer Telephony Integration);
h) l’evoluzione dei sistemi e delle reti CATV, che oltre alla diffusione quali reti di broadcasting per l’intrattenimento, iniziano a giocare un ruolo come reti digitali interattive, grazie in particolare alle tecnologie cablephone e ai modem a larga banda;
i) la diffusione delle DSL (Digital Subscriber Line), per applicazioni multimediali e la Tv digitale, DVB (Digital Video Broadcast);
j) le mini-antenne per PC per le comunicazioni satellitari e broadcasting.
Va ricordato che la maggior velocità nei mezzi trasmittenti rappresenta il principale fattore di evoluzione, cui consegue lo sviluppo dei sistemi di cablaggio: tale evoluzione caratterizza tutti i mezzi, dal cavo coassiale all’etere e al satellite, ma ultimamente si è focalizzata principalmente sul doppino telefonico e sulla fibra ottica (Cavo) così da consentire l’introduzione delle tecnologie di LAN ad alta velocità. In questo settore le principali innovazioni tecnologiche includono particolari cavi con quattro doppini che operano alla frequenza max. di 100, 200, 600 Mhz, e la fibra ottica multimodale.
Un discorso a parte meritano le già citate comunicazioni mobili e via satellite, in quanto anche in questo settore le principali innovazioni riguardano le nuove tecniche per l’alta velocità. La larga diffusione della telefonia mobile ( Cellulare) ha subito portato alla trasmissione di dati su questi collegamenti. Va precisato che le velocità di trasmissione sono limitate e questo tipo di collegamenti non consente vere applicazioni multimediali. Tuttavia, nell’ambito della comunicazione satellitare, ormai ben consolidata per Tv e radio broadcasting, un’interessante innovazione è data dalle antenne small dish che possono essere direttamente collegate a un PC, potendo disporre, così, di nuove alternative alla comunicazione senza fili ad alta velocità.
Per i sistemi satellitari lo sviluppo viaggia su due direzioni:
a) l’evoluzione tecnologica dei satelliti e delle tecniche di trasmissione a essi correlate;
b) l’evoluzione e la diversificazione dei servizi via satellite dai servizi fissi continentali/intercontinentali ai servizi mobili marittimi, da broadcasting ai nuovi servizi mobili generalizzati nel settore marittimo, aereo e terrestre.
a) l’incredibile crescita e diffusione delle tecnologie del World Wide Web (WWW) e l’evoluzione della pagina HTML da passiva-statica ad attiva, con moduli di programma caricabili localmente o dalla rete;
b) la specializzazione funzionale di diversi server nelle nuove architetture Intranet, tipicamente in server per le applicazioni transazionali, server per i database, server di gestione, controllo e sicurezza, server per l’interfacciamento con gli esistenti mainframe e i legacy system;
c) l’integrazione dei web con le varie suite d’automazione d’ufficio;
d) l’introduzione dei thin client;
e) la diffusione della tecnologia a oggetti e della logica del componentware;
f) la diffusione dei pacchetti applicativi integrati;
g) le ricadute sui sistemi informativi delle attività di BPR, Business Process Reengineering, che stanno rendendo effettivi i concetti di ‘azienda estesa’ e di ‘azienda virtuale’ e che attivano la diffusione del commercio elettronico, della banca elettronica, ecc.;
h) l’inderogabile esigenza di fornire agli utenti un ‘valore aggiunto’ reale grazie all’uso dei sistemi stessi: in proposito è opportuno notare che l’innovazione non è guidata dall’evoluzione tecnologica, ma dalle richieste dell’utenza che sa essere sempre più competitiva e globale;
i) la necessità di far convivere logiche e tecnologie diverse, vecchie e nuove, dato che non si ha il tempo né ci sono le risorse per rifare completamente tutto il sistema informativo.
L’elemento ‘tempo’ è una delle variabili più critiche per lo sviluppo delle nuove tecnologie. Non si può attendere il consolidamento di una tecnologia perché già si devono fornire nuovi strumenti che soddisfino le nuove esigenze dell’utenza dato che i processi, il business, l’organizzazione sono in continua, dinamica evoluzione.
È necessario adottare specifiche architetture informatiche d’impresa e in questo quadro di riferimento tecnologico due sono le aree più significative, quella delle infrastrutture, in particolare delle reti e del software di base, e quella degli applicativi, congiunte dall’area più critica e che richiederà sempre maggiori investimenti e attenzione, che è quella della gestione dei sistemi. Per queste due aree sono assai interessanti due standard architetturali: l’OSE, Open System Environment, dell’Open Group, dove il software è considerato come un insieme di componenti che consentono l’interazione tra le applicazioni e l’ambiente esterno e che ha trovato una forte accettazione nell’ambito dell’Unione Europea; e quello in preparazione dall’OAG, Open Application Group, con l’obiettivo di definire gli standard comuni per l’integrazione dei software applicativi d’impresa, in particolare per l’integrazione dei vari componenti per la pianificazione e gestione dell’azienda e dei collegamenti coi sistemi esterni, nell’ottica dell’azienda estesa/virtuale.
Anche se il pericolo di utilizzazioni improprie è sempre presente, in concreto le n.t.d.c. rappresentano lo strumento indispensabile per garantire libertà e progresso in una società sempre più globale.
Le principali categorie che guidano l’evoluzione dell’intero settore sono: la microelettronica, l’ hardware, il software, le telecomunicazioni. Questi comparti sono correlati e interdipendenti, ma possono interagire attraverso opportune architetture, alcune delle quali sono specifiche, mentre altre sono onnicomprensive.
1. La microelettronica
La microelettronica rappresenta il motore primario dell’evoluzione del comparto: la tecnologia si basa principalmente sui componenti al silicio ( Chip), con l’aumento di capacità delle memorie e della velocità elaborativa dell’unità centrale dei computer ( CPU), con la parallela riduzione dei costi e dei prezzi al crescere delle funzioni e delle capacità del singolo componente e con un continuo aumento del livello di integrazione. L’evoluzione della microelettronica è avvenuta sia nella progettazione dei componenti sia nella loro produzione ( Circuito integrato). Il passaggio dalla Very Large System Integration (VLSI) alla Ultra Large System Integration (ULSI) con più di tre milioni di transistor per chip, fa avvicinare sempre più sia i limiti tecnologici, sia i limiti di convenienza per le fabbriche nella produzione di componenti al silicio.Altra innovazione è quella delle tecniche olografiche ( Olografia) utilizzate nell’archiviazione ottica delle informazioni, grazie all’alta densità e all’alta velocità raggiungibili. Una promettente area di ricerca per la memorizzazione delle informazioni è costituita dalle memorie proteiniche: si basano su una proteina chiamata "bacteriorhodopsin", la cui molecola ha due differenti stati, che la possono far considerare simile a un flip-flop, un particolare circuito elettronico capace di funzionare come elemento di memoria binaria.
Si assiste alla larga diffusione dei microprocessori a 32 bit come CPU di base per i PC e all’adozione di microprocessori a 64 bit per workstation professionali e come base per tutti i sistemi di classe superiore. La differenza tra sistemi CISC (Complex Instruction Set Computing) e RISC (Reduced Instruction Set Computing) si va sempre più riducendo, dato che entrambe le architetture cercano di inglobare le migliori caratteristiche dell’altra. Sul mercato il predominio Intel incomincia a essere contrastato dai suoi principali concorrenti, AMD e Cyrix, anche se la stessa Intel ha dichiarato di essere in grado di portare le capacita’ dell’attuale Pentium da 5,5 milioni di transistor a 40 milioni.
La necessità di gestire dispositivi e applicazioni multimediali e la grafica tridimensionale, soprattutto in ambito PC, ha richiesto una revisione delle architetture CPU preesistenti. La Intel ha introdotto la tecnologia MMX capace di impaccare in un unico registro pixel multipli e di manipolarli con un unica istruzione ad hoc. In pratica il programmatore di sistema ha a disposizione 8 nuovi registri e 57 nuove istruzioni che gli consentono di attuare e gestire in maniera più efficace il video, i suoni e le animazione multimediali. MMX è indipendente dal sistema operativo usato e facilita l’aggiornamento dei preesistenti programmi, con miglioramenti prestazionali previsti tra il 50 e il 400%. Intel intende integrare la tecnologia MMX in tutte le architetture, analogamente a quanto fece nel passato con l’estensione delle istruzioni a 32 bit sulle CPU dell’epoca. In parallelo anche i principali concorrenti Intel hanno aggiornato le loro CPU nell’ottica multimediale, spesso con sistemi software compatibili alla tecnologia MMX, che al momento può essere considerato una sorta di standard.
Numerosi sono i prodotti e le continue innovazioni per l’elaborazione del segnale digitale (DSP, Digital Signal Processing) e microcontroller per dispositivi digitali, in particolare le console di video giochi, le macchine fotografiche e le videocamere, i ricevitori televisivi digitali, i controllori per la Tv via satellite, gli impianti hi-fi.
Per quanto riguarda le memorie, l’evoluzione è costante: oltre alle EPROM (Electrically Programmable ROM), alle EEPROM (Electrically Erasable Programmable Read-Only Memory), sempre più capaci per singolo chip e alle Solid-State Memory Card basate sullo standard PCMCIA, la diffusione più significativa riguarda le EDORAM (Extended Data Out Random Access Memory), le SDRAM (Synchronous Dynamic RAM), le CDRAM (Cache Dynamic Random Access Memory), ecc.
2. I sistemi per il trattamento dell’informazione
Comprendono la tecnologia dell’hardware dei sistemi e dei vari componenti periferici. Da un punto di vista tecnologico la distinzione tra sistemi di grandi dimensioni ( Mainframe), sistemi di medie o di piccole dimensioni va sempre più riducendosi. La tecnologia CMOS è ormai dominante per tutte le CPU e i sistemi di maggiori dimensioni sono basati su un forte parallelismo delle stesse CPU usate per sistemi di minori capacità. La diffusione delle logiche Internet nell’ambito dei sistemi informativi aziendali ha portato a modelli, chiamati usualmente Intranet, che cercano di semplificare in due soli livelli, il client e il server, le attuali architetture distribuite a più livelli con un sistema di grandi dimensioni al centro, con i server applicativi e di supporto a banche dati, e i posti di lavoro.I sistemi di elaborazione hanno accresciuto il livello di affidabilità e disponibilità, registrando un accorciamento del tempo medio di vita, il costante aumento del passaggio da sistemi più grandi a sistemi più piccoli (di uguale capacità, ma con minori costi e software più recente) la crescente disponibilità di logiche e periferiche multimediali.
La novità più significativa è rappresentata dal fenomeno Internet-Intranet, che ha guidato l’evoluzione dei sistemi, indipendentemente dalle loro dimensioni e funzionalità, nella logica web. L’utilizzo di CPU CMOS per creare sistemi con un elevato grado di scalabilità, dal singolo PC ai grandi sistemi, si basa sulla possibilità di farli funzionare in parallelo: numerose sono le nuove tecniche adottate per parallelizzare più CPU. Queste tecniche includono logiche architetturali, bus ad alta velocità per interconnetterli, modalità d’uso delle periferiche e delle memorie, opportune funzionalità a livello dei sistemi operativi. Le modalità più usate sono MPP (Massively Parallel Processing) e SMP (Symmetric Multi Processing): con la prima logica ogni CPU ha la propria memoria, non esistono elementi condivisi e questo fatto garantisce un’elevata scalabilità; con la seconda logica, invece, le CPU condividono memoria, così da creare un’unica macchina virtuale capace di elaborare applicazioni senza alcuna modifica.
La grafica tridimensionale, la cosiddetta 3-D, assume un ruolo e una diffusione crescente, non solo nell’ambito delle workstation, dei PC specializzati e delle tipiche applicazioni quali CAD-CAM (CAD), animazioni, realtà virtuale, i più avanzati giochi elettronici, ma anche nelle tradizionali applicazioni di informatica individuale, quali editor grafici, fogli elettronici, programmi di presentazione, strumenti gestionali e di controllo. Tale diffusione è favorita dalla disponibilità, a bassi prezzi, di librerie software e dei coprocessori dedicati alla grafica e alla gestione del video, che fungono da acceleratori per la grafica 3-D. Le principali funzioni per il trattamento di un figura tridimensionale includono: l’aggiunta delle caratteristiche di superficie, la suddivisione della figura in poligoni, l’aggiunta di luci/ombre e della prospettiva. Tali funzioni sono suddivise tra la CPU e il coprocessore.
L’evoluzione degli hard disk e dei loro driver è continua, e consente un incremento della capacita’ di memorizzazione dei dischi di circa il 60% all’anno. Per poter mantenere tale tasso di crescita, l’obiettivo dei principali produttori è di aumentare la velocità e la capacità di memorizzazione per unità di superficie. Una ulteriore spinta ai sistemi di archiviazione ad alta capacità viene dalla concentrazione e dalla centralizzazione della memoria su opportuni sistemi ad alta capacità, che rende condivisibili le informazioni contenute a innumerevoli client, connessi direttamente alla rete, e non come periferica del sistema di elaborazione: NAS, Network Attached Storage, è il nuovo termine che indica questo processo, incrementato anche dai vari tipi di rete (Internet, Intranet, LAN, WAN).
Le linee di evoluzione dei CD sono due: da un lato l’incremento della velocità per i CD-ROM, dall’altro l’introduzione del DVD (Digital Versatile Disc). Il DVD costituisce il superamento e la convergenza funzionale, in un unico dispositivo, dei CD-audio e ROM, dei laser disc e dei videotape. L’attuale standard, promosso dal DVD Licenser Consortium, è la combinazione di due differenti proposte, l’MMCD (MultiMedia Compact Disc) e l’SD (Super Density). Il DVD considera due tipologie di prodotti, il DVD-Video, periferica della Tv, e il DVD-ROM, periferica di un PC. Sono previsti inoltre un DVD-Audio, quale periferica di un impianto stereo. Il formato video è l’MPEG-2 (MPEG); per il suono il formato di riferimento è l’LPCM (Linear Pulse Code Modulation), ma viene anche usato, oltre a MPEG-2, il Dolby Digital.
Le principali innovazioni per le stampanti riguardano il trattamento del colore, in particolare per le stampanti di desk top. Mentre nei monitor il trattamento del colore sullo schema si basa sul processo RGB, Red-Green-Blue, le stampanti utilizzano prevalentemente lo schema CMYK, Cyan-Magenta-Yellow-Black. Il tono del colore stampato sulla carta dipende dalla combinazione di questi quattro colori e, analogamente a quanto avviene con l’RGB, l’efficacia del processo dipende fortemente dall’implementazione hardware. Per ovviare ai problemi connessi con queste diverse modalità operative l’International Color Consortium (ICC) ha definito uno standard indipendente dalle piattaforme e dall’hardware, in modo da ridurre i problemi di calibrazione, cioè la gestione calibrata armonizzata dei colori dei monitor, degli scanner e quella delle stampanti. L’ICC ha definito un Color Management Framework che standardizza i formati di tutti i tipi di input, output e i profili.
Le principali innovazioni tecnologiche per i video si sono concentrate principalmente nella realizzazione di monitor con schermi più grandi a cristalli liquidi utilizzabili in particolare per i PC desktop. Fino a poco tempo fa le dimensioni degli schermi LCD era al massimo di 12.1", ora la tendenza è a 16.1". Il problema rimane quello del prezzo, ancora troppo alto per una larga diffusione di questi prodotti. Per i monitor ‘da parete’, con dimensioni variabili dai 20" ai 42" e oltre, la tecnologia usata è quella a plasma e sono infatti chiamati PDP (Plasma Display Panel): sono utilizzati per lo più per la Tv, anche ad alta risoluzione e digitale; esistono ancora problemi per disporre delle risoluzioni richieste a livello informatico (VSGA e SXGA), che dovrebbero a breve essere superati. In termini di innovazione, i tradizionali monitor a raggi catodici si sono evoluti sia nella fascia alta sia in quella bassa, in termini di prezzo e di prestazioni. Nella fascia alta sono comparse tecnologie per i monitor a colori che migliorano quelle precedenti, mentre nuovi standard sono stati emanati dalla VESA (Video Electronic Standard Association) per i monitor a raggi catodici, come l’aumento della frequenza verticale per avere una maggior risoluzione.
3. Le tecnologie software
Le tecnologie software hanno visto nel web e nella multimedialità i principali punti di riferimento delle innovazioni, in particolare: la tecnologia a oggetti, la logica ipertestuale e i siti WEB per Internet e Intranet, gli ambienti di sviluppo visuali e RAD (Rapid Application Development), il database a oggetti e il data warehouse, un database, spesso molto grande, capace di accedere a tutte le informazioni di una società, che può essere distribuito su diversi PC e contenere più database.La revisione e il ripensamento degli attuali contesti applicativi sono stati accelerati dalle problematiche inerenti l’anno 2000, che hanno creato una significativa nicchia di mercato, in termini di prodotti e di servizi, basata per lo più sugli strumenti di riprogettazione e di modifica automatica di quelle parti di codice relative a operazioni con date che indicano l’anno con due sole cifre. I software di sistema e le utilities registrano interessanti novità per ciò che riguarda: la logica Internet/Intranet che sta parzialmente modificando quella precedente di client /server; l’evoluzione dei sistemi di sicurezza per il trasferimento di informazioni su reti pubbliche; il consolidamento e l’evoluzione del concetto di sistema aperto; una crescente ampia scalabilità tra piattaforme diverse. I prodotti sul mercato sono sempre più integrati, includendo nello stesso pacchetto il sistema operativo, un insieme di utilities e sofisticati sistemi di gestione.
Le logiche Internet/Intranet e quelle dei componenti software, basati sulle tecnologie a oggetti, hanno accelerato lo sviluppo dei pacchetti applicativi, anche per poter rispondere alla rapida evoluzione delle esigenze del business e degli utenti.
Il ciclo di vita degli applicativi si è drasticamente ridotto. La diffusione dei pacchetti integrati e la necessità di far convivere vecchi ambienti applicativi coi nuovi ha ulteriormente cambiato le logiche di approccio alla realizzazione del software, logiche che stanno trovando le prime attuazioni nei nuovi ambienti di sviluppo. Le basi comuni sono costituite dalla scelta di un ambiente a oggetti, dalla possibilità di riuso dei moduli, dall’indipendenza dalle piattaforme hardware, dalla scalabilità e portabilità dei moduli, dal visual programming, il supporto delle logiche e dei protocolli Internet, e in particolare dalla compatibilità coi più diffusi browser.
È interessante notare che, scontata l’indipendenza dalle piattaforme hardware, la battaglia tra i più grandi produttori sul mercato si sta giocando su due diversi approcci: da un lato si favorisce l’indipendenza dai sistemi operativi, ma ci si basa su un solo linguaggio, ad esempio Java, dall’altro si limitano i sistemi operativi, ad esempio quelli della Microsoft, ma si consente l’interoperabilità e l’integrazione di moduli scritti con linguaggi diversi e in ambienti di sviluppo diversi.
4. Le telecomunicazioni
Anche per le telecomunicazioni l’evento Internet-Intranet è stato il motore principale, pur nell’evoluzione continua e parallela dell’aumento della velocità trasmissione e di commutazione, dell’intelligenza-integrazione, della mobilità-ubiquità. Gli schemi di indirizzamento e le logiche TCP/IP (Rete) stanno diventando, sull’onda della loro incredibile diffusione, gli standard di riferimento sia nell’ambito delle reti pubbliche sia di quelle private. Sul mercato dei dispositivi la parte del leone è giocata da router, switch and access device sia per WAN (Wide Area Network) sia per LAN, all’insegna di ‘più per meno’ e di una sempre maggior capacità. La liberalizzazione dei mercati favorisce un’ulteriore spinta alla disponibilità di alternative nei servizi di telecomunicazione, in particolare in quelli di trasporto, e nell’integrazione di voce e dati con l’obiettivo di drastiche riduzioni dei costi. Le principali linee di innovazione sono rappresentate da:a) alta velocità per WAN: le reti di computer sono in grado di comunicare fra loro, benché diffuse su un’area molto vasta. Sonet, SDH e ATM sono le tecnologie che si stanno consolidando come leader del settore;
b) alta velocità per LAN: le reti di computer collegati tra loro, a livello di piccoli ambiti, possono condividere file e periferiche, come pure scambiarsi messaggi: si è consolidata la velocità di 100 Mb per secondo, si stanno diffondendo velocemente e si iniziano a offrire le prime LAN di 1 Gigabit per secondo;
c) il forte orientamento all’alta velocità ha portato alla diffusione di innumerevoli prodotti per l’accesso, lo switching e il routing;
d) la diffusione delle logiche Internet/Intranet ha di fatto imposto l’architettura e lo schema di indirizzamento TCP/IP, un protocollo sviluppato dal Dipartimento della Difesa statunitense per le comunicazioni tra calcolatori, ma anche questo ha subito e sta subendo innumerevoli miglioramenti;
e) lo sviluppo di nuovi sistemi per la gestione di reti, capaci di integrare architetture e tecniche di comunicazione eterogenee;
f) l’evoluzione dei browser principalmente su due fronti complementari: da un lato l’evoluzione delle pagine HTML da passive ad attive, capaci di gestire moduli locali o mobili scaricabili dai server, dall’altro l’introduzione delle cosiddette tecnologie push e di netcasting, per la diffusione di informazioni in logica broadcasting;
g) la comunicazione vocale su Internet e Frame Relay e l’integrazione tra sistemi telefonici e computer, CTI (Computer Telephony Integration);
h) l’evoluzione dei sistemi e delle reti CATV, che oltre alla diffusione quali reti di broadcasting per l’intrattenimento, iniziano a giocare un ruolo come reti digitali interattive, grazie in particolare alle tecnologie cablephone e ai modem a larga banda;
i) la diffusione delle DSL (Digital Subscriber Line), per applicazioni multimediali e la Tv digitale, DVB (Digital Video Broadcast);
j) le mini-antenne per PC per le comunicazioni satellitari e broadcasting.
Va ricordato che la maggior velocità nei mezzi trasmittenti rappresenta il principale fattore di evoluzione, cui consegue lo sviluppo dei sistemi di cablaggio: tale evoluzione caratterizza tutti i mezzi, dal cavo coassiale all’etere e al satellite, ma ultimamente si è focalizzata principalmente sul doppino telefonico e sulla fibra ottica (Cavo) così da consentire l’introduzione delle tecnologie di LAN ad alta velocità. In questo settore le principali innovazioni tecnologiche includono particolari cavi con quattro doppini che operano alla frequenza max. di 100, 200, 600 Mhz, e la fibra ottica multimodale.
Un discorso a parte meritano le già citate comunicazioni mobili e via satellite, in quanto anche in questo settore le principali innovazioni riguardano le nuove tecniche per l’alta velocità. La larga diffusione della telefonia mobile ( Cellulare) ha subito portato alla trasmissione di dati su questi collegamenti. Va precisato che le velocità di trasmissione sono limitate e questo tipo di collegamenti non consente vere applicazioni multimediali. Tuttavia, nell’ambito della comunicazione satellitare, ormai ben consolidata per Tv e radio broadcasting, un’interessante innovazione è data dalle antenne small dish che possono essere direttamente collegate a un PC, potendo disporre, così, di nuove alternative alla comunicazione senza fili ad alta velocità.
Per i sistemi satellitari lo sviluppo viaggia su due direzioni:
a) l’evoluzione tecnologica dei satelliti e delle tecniche di trasmissione a essi correlate;
b) l’evoluzione e la diversificazione dei servizi via satellite dai servizi fissi continentali/intercontinentali ai servizi mobili marittimi, da broadcasting ai nuovi servizi mobili generalizzati nel settore marittimo, aereo e terrestre.
5. Le architetture dei sistemi informativi
Le architetture dei sistemi informativi sono oggetto di diverse e concomitanti innovazioni tecnologiche, motivate da:a) l’incredibile crescita e diffusione delle tecnologie del World Wide Web (WWW) e l’evoluzione della pagina HTML da passiva-statica ad attiva, con moduli di programma caricabili localmente o dalla rete;
b) la specializzazione funzionale di diversi server nelle nuove architetture Intranet, tipicamente in server per le applicazioni transazionali, server per i database, server di gestione, controllo e sicurezza, server per l’interfacciamento con gli esistenti mainframe e i legacy system;
c) l’integrazione dei web con le varie suite d’automazione d’ufficio;
d) l’introduzione dei thin client;
e) la diffusione della tecnologia a oggetti e della logica del componentware;
f) la diffusione dei pacchetti applicativi integrati;
g) le ricadute sui sistemi informativi delle attività di BPR, Business Process Reengineering, che stanno rendendo effettivi i concetti di ‘azienda estesa’ e di ‘azienda virtuale’ e che attivano la diffusione del commercio elettronico, della banca elettronica, ecc.;
h) l’inderogabile esigenza di fornire agli utenti un ‘valore aggiunto’ reale grazie all’uso dei sistemi stessi: in proposito è opportuno notare che l’innovazione non è guidata dall’evoluzione tecnologica, ma dalle richieste dell’utenza che sa essere sempre più competitiva e globale;
i) la necessità di far convivere logiche e tecnologie diverse, vecchie e nuove, dato che non si ha il tempo né ci sono le risorse per rifare completamente tutto il sistema informativo.
L’elemento ‘tempo’ è una delle variabili più critiche per lo sviluppo delle nuove tecnologie. Non si può attendere il consolidamento di una tecnologia perché già si devono fornire nuovi strumenti che soddisfino le nuove esigenze dell’utenza dato che i processi, il business, l’organizzazione sono in continua, dinamica evoluzione.
È necessario adottare specifiche architetture informatiche d’impresa e in questo quadro di riferimento tecnologico due sono le aree più significative, quella delle infrastrutture, in particolare delle reti e del software di base, e quella degli applicativi, congiunte dall’area più critica e che richiederà sempre maggiori investimenti e attenzione, che è quella della gestione dei sistemi. Per queste due aree sono assai interessanti due standard architetturali: l’OSE, Open System Environment, dell’Open Group, dove il software è considerato come un insieme di componenti che consentono l’interazione tra le applicazioni e l’ambiente esterno e che ha trovato una forte accettazione nell’ambito dell’Unione Europea; e quello in preparazione dall’OAG, Open Application Group, con l’obiettivo di definire gli standard comuni per l’integrazione dei software applicativi d’impresa, in particolare per l’integrazione dei vari componenti per la pianificazione e gestione dell’azienda e dei collegamenti coi sistemi esterni, nell’ottica dell’azienda estesa/virtuale.
6. Conclusione
Lo sviluppo delle tecnologie della comunicazione, in particolare di quelle informatiche, ha modificato profondamente le modalità dell’interazione fra la persona e gli strumenti utilizzati. Oggi il computer e i programmi continuano a essere punto di riferimento essenziale, ma hanno perso la centralità che avevano: sono sempre meno ‘fine’ e sempre più ‘tramite’ per le attività degli utenti. Le nuove tecnologie, anche quelle più sofisticate, sono ideate in funzione di risposte in settori utili alla società ( medicina, fisica, progettazioni, ecc.) o dell’utilizzo di un sempre maggior numero di persone, e quindi con caratteristiche di grande fruibilità sociale.Anche se il pericolo di utilizzazioni improprie è sempre presente, in concreto le n.t.d.c. rappresentano lo strumento indispensabile per garantire libertà e progresso in una società sempre più globale.
Foto
Non ci sono foto per questa voce
Video
Non ci sono video per questa voce
Bibliografia
- ABRUZZESE Alberto - SUSCA Vincenzo (ed.), Immaginari postdemocratici. Nuovi media, cybercultura e forme di potere, Franco Angeli, Milano 2006.
- ANACARANI Fabio COSTABILE Michele, Concorrenza ibrida. Convergenza, tecnologie, esperienze di consumo, Pearson Education Italia, Milano 2009.
- ANTONUCCI Maria Cristina, Ideologia e comunicazione: costruzione di senso e nuove tecnologie, Franco Angeli, Milano 2006.
- ANTONUCCI Rocco (ed.), Il tao del web, Il melangolo, Genova 2003.
- BALDI Carlo - ZARRIELLO Roberto, Penne digitali dalle agenzie ai blog: fare informazione nell’era di Internet, Centro di documentazione giornalistica stampa, Roma 2005.
- BALDWIN Thomas F. - MCVOY Stevens D. - STEINFIELD Charles W., Convergence. Integrating media, information and communication, Sage, London 1996.
- BALLE Francis, Le nouveaux médias, PUF, Paris 1996.
- BALZOLA Andrea - MONTEVERDI Anna Maria, Le arti multimediali digitali. Storia, tecniche, linguaggi, etiche ed estetiche delle arti del nuovo millennio, Garzanti, Milano 2007.
- BALZOLA Andrea - MONTEVERDI Anna Maria (ed.), Le arti multimediali digitali, Garzanti, Milano 2004.
- BENKLER Yochai, The wealth of networks: how social production transforms markets and freedom, Yale University Press, London 2006.
- BENKLER Yochai, La ricchezza della rete. La produzione sociale trasforma il mercato e aumenta le libertà, Università Bocconi, Milano 2006.
- BENTIVEGNA Sara, Politica e nuove tecnologie della comunicazione, Laterza, Roma/Bari 2002.
- BERNERS-LEE Tim, Weaving the web. The past, present, and future of the Wold Wide Web, Orion, London 1999.
- BETTETINI Gianfranco, L’Ulisse semiotico e le sirene informatiche, Bompiani, Milano 2006.
- BETTINI Andrea, Giornali.it. La storia dei siti internet dei principali quotidiani italiani, Ed.it, Catania 2006.
- BOLOGNINI Maurizio, Postdigitale: conversazione sull’arte e le nuove tecnologie, Carocci, Roma 2008.
- BOLTER Jay David - GRUSIN Richard, Remediation: competizione e integrazione tra media vecchi e nuovi, Guerini e Associati, Milano 2003.
- BORDONI Carlo, Società digitali. Mutamento culturale e nuovi media, Liguori, Napoli 2007.
- BOSCARO Andrea - RICCARDO Porta, Tecniche di web marketing. Sviluppare l’e-commerce come opportunità per la piccola e media impresa, Franco Angeli, Milano 2008.
- BRANCATI Daniela AJELLO MESSINA Anna Maria RIVOLTELLA Pier Cesare, Guinzaglio elettronico. Il telefono cellulare tra genitori e figli, Donzelli, Roma 2009.
- BROWN Barry - GREEN Nicola - HARPER Richard (edd.), Wireless world: social, cultural and interactional issues in mobile communications and computing, Springer, London 2002.
- BUCCOLIERO Elena, Posta prioritaria. Giovani, linguaggi e nuovi mezzi di comunicazione, Carocci, Roma 2003.
- BUCKINGHAM David - WILLET Rebekah, Digital generations: children, young people, and new media, L. Erlbaum, London 2006.
- CAMPBELL Heidi A., Digital religion. Understanding religious practice in new media worlds, Routledge, London 2013.
- CAMPBELL Heidi A., Exploring religious community on line. We are one in the network, Peter Lang, New York 2010.
- CAMPBELL Heidi A., When religion meets new media. Media, religion and culture, Routledge, London 2010.
- CANTONI Lorenzo - PICCINI Chiara, Il sito di vicino è sempre più verde. La comunicazione fra committenti e progettisti di siti internet, Franco Angeli, Milano 2004.
- CARNEVALE MAFFÈ Carlo Alberto, Il futuro digitale. Gli anni che hanno cambiato la nostra vita, la casa intelligente, la tv del futuro, il telefono di domani, Il Sole-24 Ore, Milano 2002.
- CARRADA Luisa, Il mestiere di scrivere. Le parole al lavoro, tra carta e web, Apogeo, Milano 2008.
- CASALEGNO Federico, Le cybersocialità. Nuovi media e nuove estetiche comunitarie, Il Saggiatore, Milano 2007.
- CASTELLS Manuel, Mobile communication e trasformazione sociale, Guerini, Milano 2008.
- CAVALLO Marino, La comunicazione pubblica tra globalizzazione e nuovi media, Franco Angeli, Milano 2005.
- CHERUBINI Sergio PATTUGLIA Simonetta, La comunicazione tra reale e virtuale. High touch o high tech?, Franco Angeli, Milano 2009.
- CIOTTI Fabio - RONCAGLIA Gino, Il mondo digitale. Introduzione ai nuovi media, Laterza, Roma 2003.
- CORAZZA Laura, Internet e la società conoscitiva: cyberdemocrazia e sfide educative, Erickson, Trento 2008.
- COSENZA Giovanna, Introduzione alla semiotica dei nuovi media, Laterza, Roma/Bari 2014.
- DAL BEN Paolo, Identità e nuovi media, Pazzini Editore, Villa Verucchio (RN) 2008.
- DE BENEDITTIS Mario (ed.), Comunità in rete, relazioni sociali e comunicazione mediata dal computer, Franco Angeli, Milano 2003.
- DEUZE Mark, Mediawork. Digital media and society series, Polity Press, Cambridge 2007.
- DI NATALE Rosa Maria, Potere di link. Scritture e letture dalla carta ai nuovi media, Bonanno, Roma 2009.
- DOMINICK Joseph, La dinamica de la comunicacion masiva. Los medios en la era digital, McGraw Hill, México 2006.
- D’OTTAVI Alberto, Web 2.0. Le meraviglie del mondo che verrà, Unwired Media, Milano 2006.
- EVERETT Anna - CALDWELL John Thornton (eds.), New media: theories and practices of digitextuality, Routledge, London/New York 2003.
- FABBRI Manuela, Empowerment e nuove tecnologie. Telematica e problematiche della devianza e delle dipendenze, Junior, Bergamo 2005.
- FERRI Paolo, Teorie e tecniche dei nuovi media: pensare formare lavorare nell’epoca della rivoluzione digitale, Guerini e Associati, Milano 2002.
- FERRUZZI Alessandro – RELLA Giuseppe, La comunicazione tra etica e tecnica. Dinamiche digitali: innovazioni ed illusioni tecnologiche, Pisanti Editore, Napoli 2007.
- FIDLER Roger, Mediamorfosi. Comprendere i nuovi media, Guerini e Associati, Milano 2000.
- FILENI Franco, Analogico e digitale, Ed. Goliardiche, Trieste 2003.
- FLEISCHNER Edoardo, Il paradosso di Gutenberg. Dalla crossmedialità al Media on Demand, RAI-ERI, Roma 2007.
- FLICHY Patrice, L’innovazione tecnologica. Le teorie dell’innovazione di fronte alla rivoluzione digitale, Feltrinelli, Milano 1996.
- GAMALERI Gianpiero, Lo scenario dei media. Radio, televisione, tecnologie avanzate, Kappa, Bologna 2006.
- GARASSINI Stefania, Dizionario dei new media. Internet, multimedia, tv digitale, realtà virtuale, telecomunicazioni, intelligenza artificiale, Cortina, Milano 1999.
- GEROSA Mario, Rinascimento virtuale. Convergenza, comunità e terza dimensione, Meltemi, Roma 2008.
- GEROSA Mario - HERZ J. C. - PFEFFER Aurélien, Mondi virtuali: benvenuti nel futuro dell’umanità, Castelvecchi, Roma 2006.
- GIOVAGNOLI Maximiliano, Cross-media. Le nuove narrazioni, Apogeo, Milano 2009.
- GORMAN Lyn - MCLEAN David, Media e società nel mondo contemporaneo, Il Mulino, Bologna 2005.
- GRANELLI Andrea, Il sé digitale. Identità, memoria, relazioni nellera della rete, Guerini e Associati, Milano 2006.
- GRANIERI Giuseppe, La società digitale, Laterza, Roma/Bari 2006.
- GRANIERI Giuseppe, Blog generation, Laterza, Bari 2005.
- GRIENTI Vincenzo, Chiesa e Web 2.0. Pericoli e opportunità in rete, Effatà Editrice, Cantalupa (TO) 2009.
- HINE Christine, Virtual Etnography, Sage, London 2003.
- HINE Christine (ed.), Virtual Methods. Issues in the Social Research on the Internet, Berg, Oxford/New York 2006.
- JENKINS Henry, Convergence culture: where old and new media collide, New York University, New York 2006.
- JENKINS Henry, Fans, bloggers and gamers: media consumers in a digital age, New York University Press, New York 2006.
- KAPLAN Andreas M. - HAENLEIN Michael, Users of the world, unite! The challenges and opportunities of social media in «Business Horizons», 53 (2010) 1, pp.59-68.
- KARAGANIS Joe, Structures of participation in digital culture, Social Science Research Council, New York 2007.
- KEEN Andrew, Dilettanti.com. Come la rivoluzione del web 2.0 sta uccidendo la nostra cultura e distruggendo la nostra economia, Grafica Veneta, Padova 2009.
- LÉVY Pierre, Cybercultura. Gli usi sociali delle nuove tecnologie, Feltrinelli, Milano 1999.
- LÉVY Pierre, Cyberdémocratie, Odile Jacob, Paris 2002.
- LIEVROUW Leah A., Alternative and activist new media, Polity Press, Cambridge 2011.
- LIEVROUW Leah A. - LIVINGSTONE Sonia (edd.), Capire i new media. Culture, comunicazione, innovazione tecnica e istituzioni sociali, Hoepli, Milano 2007.
- LIEVROUW Leah A. - LIVINGSTONE Sonia, Handbook of new media: social shaping and social consequences of ICTs, Sage, London 2006.
- LING SEYLER Richard, Mobile communication, Polity Press, Cambridge 2009.
- LIVINGSTONE Sonia HADDON Leslie, Kids online. Opportunities and risks for children, Policy Press, Bristol 2009.
- LOVINK Geert, Zero comments: blogging and critical internet culture, Routledge, London/New York 2007.
- MAISTRELLO Sergio, La parte abitata della rete, Tecniche Nuove, Milano 2007.
- MANOVICH Lev, The language of new media, MIT Press, Cambridge (MA) 2001.
- MARI Alberto, Web publishing con Blog e Wiki, Apogeo, Milano 2004.
- MARINI Alessandro, Net.art. Estetica e cultura della connessione, Nuova Cultura, Roma 2007.
- MARSILI Marco, La rivoluzione dellinformazione digitale in rete. Come internet sta cambiando il modo di fare giornalismo. Chi ha paura della rete?, Odoya, Bologna 2009.
- MASCHERONI Giovanna PASQUALI Francesca, Breve dizionario dei nuovi media, Carocci, Roma 2006.
- MASTROIANNI Michele - PRIGIOBBO Antonio - VELLUTINO Daniele, New media, Esselibri, Napoli 2000.
- MAYERSCHONBERGER Viktor, Delete. Il diritto alloblio nellera digitale, Egea, Milano 2010.
- MCGANN Jerome, La letteratura dopo il World Wide Web. Il testo letterale nell'era digitale, Bononia University Press, Bologna 2002.
- MENDUNI Enrico, I media digitali. Tecnologie, linguaggi, usi sociali, Laterza, Roma/Bari 2007.
- MENDUNI Enrico, Fine delle trasmissioni. Da Pippo Baudo a YouTube, Il Mulino, Bologna 2007.
- METITIERI Fabio, Il grande inganno del web 2.0, Laterza, Roma/Bari 2009.
- MIRABITO Michael, The New Communications Technology, Focal Press, Massachusetts 1994.
- MORLEY David, Media, modernity and technology. The geography of the new, Routledge, London/New York 2007.
- NEGROPONTE Nicholas, Essere digitali, Sperling & Kupfer, Milano 1995.
- NIGHTINGALE Virginia - DWYER Tim (edd.), New media worlds: challanges for convergence, Oxford University Press, South Melbourne/Victoria 2007.
- PASQUALI Francesca, I nuovi media. Tecnologie e discorsi sociali, Carocci, Roma 2003.
- PASQUALI Francesca - SCIFO Barbara, Consumare la rete. La fruizione di internet e la navigazione del web, Vita e Pensiero, Milano 2004.
- PECCHINENDA Gianfranco, Videogiochi e cultura della simulazione: la nascita dell’, Laterza, Roma/Bari 2004.
- PENTECOSTE Nicola - PENSOSI Pierfrancesco - ABRUZZESE Alberto, Panorami mediali. Leggere il mutamento nell’era dei nuovi media, Morlacchi, Perugia 2005.
- PONZIO Silvia, La comunicazione on-line. Chat, webcam, blog, Skype, Mondadori, Milano 2008.
- PROTETTÌ Cesare (ed.), Bit e parole. Giornali elettronici, Internet, CD Rom, on Line, Tv interattiva, Gutenberg 2000, Torino 1995.
- RHEINGOLD Howard, Smart mobs: the next social revolution, Perseus Publishing, Cambridge 2002.
- RIVA Giuseppe, Psicologia dei nuovi media, Il Mulino, Bologna 2012 (3.a ed.).
- RIVOLTELLA Pier Cesare, Costruttivismo e pragmatica della comunicazione on line. Socialità e didattica in internet, Erickson, Trento 2003.
- ROVESCALLI R., Il cinema e le sue sorelle. Evoluzione digitale nella tecnica e nel linguaggio del cinema, della televisione e della radio, Franco Angeli, Milano 2000.
- SALZANO Diana, Etnografie della rete, Franco Angeli, Milano 2008.
- SCANAGATTA Silvio SEGATTO Barbara, Le nuove macchine sociali. Giovani a scuola tra internet, cellulare e mode, Franco Angeli, Milano 2007.
- SENTINELLI Marco, Usabilità dei nuovi media, Carocci, Roma 2003.
- SHIPSIDE Steve, I segreti del Podcasting, Mondadori, Milano 2006.
- SHIRKY Clay - FASCE Federico, Uno per uno, tutti per tutti. Il potere di organizzare senza organizzazione, Codice Edizioni, Torino 2009.
- SIBILLA Gianni, Musica e media digitali. Tecnologie, linguaggi e forme sociali dei suoni, dal walkman all’iPod, Bompiani, Milano 2008.
- SONG Felicia Wu, Virtual communities. Bowling alone, online together, Peter Lang, New York 2009.
- SPADARO Antonio, Connessioni. Nuove forme della cultura al tempo di Internet, Pardes Edizioni, Bologna 2006.
- SPEDICATO Luigi (ed.), La vita on line. Strategie di costruzione del sé in rete, Besa, Lecce 2008.
- TAPSCOTT Don, Growing up digital. The rise of the Net Generation, McGraw Hill, New York 1998.
- TAPSCOTT Don - WILLIAMS Anthony D., Wikinomics. La collaborazione di massa che sta cambiando il mondo, Etas Libri, Milano 2007.
- TAYLOR John P., Direct-to-Home Satellite Broadcasting, Television/Radio Age, New York 1980.
- TERRANOVA Tiziana, Cultura del network. Per una micropolitica dell’informazione, Manifestolibri, Roma 2006.
- TIROCCHI Simona, Giovani a parole. Dalla generazione mobile alla networked generation, Guerini, Milano 2002.
- TRAFERRI Marco, Podcasting che funziona. Crea la tua radio in Internet: oggi e facile ed economico, Apogeo, Milano 2006.
- TREMAYNE Mark (ed.), Blogging, citizenship, and the future of media, Routledge, New York/Oxon 2007.
- TURKLE Sherry, La vita sullo schermo: nuove identità e relazioni sociali nell’epoca di Internet, Apogeo, Milano 2005.
- VAN DIJK Jan, Sociologia dei nuovi media, Il Mulino, Bologna 2002.
- WALLACE Patricia, La psicologia di Internet, Raffaello Cortina Editore, Milano 2000.
- WARDRIP-FRUIN Noah - HARRIGAN Pat (edd.), First person: new media as story, performance, and game, MIT Press, Cambridge (MA) 2004.
- WEIMANN Gabriel, Communicating unreality: modern media and the reconstruction of reality, Sage, California/London/New Delhi 2000.
- WHITE Michele, The body and the screen. Theories of internet spectatorship, MIT Press, Cambridge (MA) 2006.
- ZUANELLI SONINO Elisabetta, Manuale di linguaggio, comunicazione e applicazioni digitali, Colombo, Roma, 2006.
Documenti
Non ci sono documenti per questa voce
Links
Come citare questa voce
Fortunato Giuseppe , Nuove tecnologie della comunicazione, in Franco LEVER - Pier Cesare RIVOLTELLA - Adriano ZANACCHI (edd.), La comunicazione. Dizionario di scienze e tecniche, www.lacomunicazione.it (21/11/2024).
Il testo è disponibile secondo la licenza CC-BY-NC-SA
Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo
Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo
883