Microsoft Edge, Microsoft, Browser Internet Firefox, Mozilla, estensioni OpenOffice, software libero, Writer, Impress, Calc PadFone, smartphone Matroska, multimedia Avast, antivirus, sicurezza html5, flash, giochi iPhone, iPod touch e iPad infografica, internet browsers, opera, mozilla firefox, chrome, internet explorer cloud computing, internet

mercoledì 17 gennaio 2018

Internet la grande rete ha cambiato il nostro modo di vivere, tra passato, presente e futuro.

Sono trascorsi più di 20 anni dall’avvento di internet a oggi ma sembrano essere passati secoli da quando cercavamo informazioni su en carta, o inserivamo il floppy disc per salvare dati, o eravamo abituati ad attendere 1 minuto per l’avvio di una pagina web.

Nel 1996 trascorrevamo poche ore al mese davanti al computer, oggi in media si trascorrono circa ventisette ore al mese su internet.internet

È cambiato notevolmente il nostro modo di approcciarci al mondo, la nostra percezione visiva, della memoria, del ragionamento logico e operativo.

L’utilizzo di internet ha modificato per sempre il nostro modo di relazionarci con il modno e il modo attraverso il quale elaboriamo le informazioni. Le nostre menti sono sincronizzate all’avvio di procedimenti automatizzati e logici. L’infrastruttura di internet si è espansa a macchia d’olio in tutto il mondo e oggi non c’è famiglia senza pc. Nel 1996 acquistavamo giornali, quotidiani e mensili per avere informazioni di cronaca o di carattere politico, oggi chiunque può scrivere o informarsi in maniera superficiale sul web. Nel 1996 internet era uno strumento di nicchia, non accessibile a tutte le famiglie.

Di fronte a questo cambiamento, il passato ci sembra un universo estraneo, antisociale, dove il computer rappresentava un mezzo per estraniarsi dal mondo e rintanarsi nella propria realtà. Oggi le piattaforme virtuali dei social, mettono a nudo ogni abitudine di vita, passione, professione, mimetizzando l’intelligenza con la condivisione. 

Internet ha cambiato il nostro modo di vivere e di comunicare con il mondo attraverso una serie di procedure automatizzate in grado di rendere più semplice la nostra vita. Si, perché acquistiamo sempre meno cd, usciamo sempre meno preferendo gli acquisti online, cerchiamo molto meno informazioni sugli elenchi a scapito di notizie online, non usiamo più cartine geografiche per spostarci, ma ci muoviamo con il navigatore, non comunichiamo più con le persone ma attraverso il web. Sebbene il web 2.0 sia una nuova dimensione sociale rivoluzionaria e apra nuovi scenari basati sulla condivisione e su una nuova dimensione sociale, l’autenticità dei rapporti umani e della vecchia arte dell’arrangiarsi con gli strumenti che si trovavano, ci manca mol

Internet oggi: crescere per diventare "invisibile"

Fotografare Internet attraverso i numeri potrebbe oggi non avere più molto senso. I numeri quando si parla di tecnologia servono a descriverci un fenomeno in mutamento, in crescita. E Internet ormai non è più un “fenomeno” legato esclusivamente allo sviluppo tecnologico. La Rete è già l’infrastruttura di comunicazione planetaria. I numeri possono allora aiutarci a capire cosa questo possa significare domani e cosa ha significato ieri, quando Internet ha cominciato la sua inarrestabile corsa per diventare l’elemento che tutto collegherà. Raccontarla oggi quindi vuol dire cominciare a disegnarne l’“invisibilità”, quel processo che quando avviene decreta che una tecnologia è parte integrante delle nostre vite e nel quale i numeri non sono più l’espressione principale del suo valore tecnologico. Può essere una “invisibilità” fisica, come ad esempio accadde per la Rete Elettrica che, quando era agli inizi della sua storia, non solo faceva notizia perché a ogni nuova installazione la cosa veniva celebrata come un evento epocale dai giornali. Ma era decisamente “visibile” perché in tanti paesini e città della nostra penisola i fili che portavano la corrente in casa sporgevano dalle finestre e passavano sopra le teste di chi passeggiava, diventando vera e propria componente dell’arredo urbano. Oggi noi non “vediamo” la corrente elettrica arrivare nelle nostre case. Ma l’“invisibilità” può essere anche un fatto legato alla nostra percezione. Il frigorifero non è invisibile fisicamente, ma non lo percepiamo più come una “tecnologia”. Così il telefono di casa, il forno e mille altre cose che invece sono frutto di una crescita tecnologica fondamentale. E di grandi cambiamenti nelle nostre vite. Pensate solo a quanto il frigorifero ha cambiato per la nostra alimentazione e la nostra salute. Ecco allora che Internet si sta avviando alla fase dell’“invisibilità”, quella in cui non sarà più un’azione da specialista o da esperto la connessione a Internet, come era ai primordi, ma un’azione di assoluta normalità, come lo è telefonare.

Internet ieri: crescere per reggere l’urto

In questo contesto quindi i numeri di oggi cominciano ad avere prevalentemente valore statistico. Può diventare interessante confontarli con quelli di ieri e capire quali potranno diventare domani. Oggi, come ci dice il 39° Rapporto Censis (trovate molti dati dal Rapporto su questo articolo di Repubblica.it, ci sono 20 milioni di Internauti (termine un po’ buffo: quelli con il cellulare sono “telefonauti”?), dei quali 10.200.000 vivono già nel mondo digitale in modo maturo e quasi altrettanti utilizzano Internet come semplice “commodity” (posta elettronica e poco altro). Ovviamente nei primi anni il problema fondamentale era collegare le persone. Infatti, ad esempio, nel 1997 la Rete cresceva a livello mondiale dal punto di vista dell’infrastruttura (cablaggi, server, collegamenti, tutto quello che serviva per arrivare fino a casa nostra e nei nostri uffici) del 300% all’anno, numero impressionante. Pensate se la Rete Stradale o quella Ferroviaria crescessero di 3 volte ogni anno. Ma il problema di allora era che ancora più impressionante era la crescita della popolazione che si connetteva. Era infatti del 400% all’anno. Questo voleva dire che pur crescendo di tre volte all’anno l’infrastruttura, il livello medio della qualità delle connessioni peggiorava. Per cui il primo problema era far connettere le persone, e reggere l’urto della loro crescita numerica. Tenete conto che nel 1997 erano stimate in Italia circa 700.000 connessioni a Internet.

Internet domani: crescere per interconnettere tutto

E domani? Il dato più interessante è nella quantità di chip oggi esistenti nel pianeta. Considerando che 60 anni fa c’era un solo computer sulla Terra, il fatto che oggi ci siano circa 10 miliardi di chip fa già una enorme impressione. Chip ci sono in tante cose, dalle auto agli aerei, dai frigoriferi ai pc (ovviamente). Ma non tutti sono connessi o potenzialmente collegabili a Internet. Tra dieci anni i chip attivi saranno circa 200 miliardi. Tutti connessi o potenzialmente collegabili a Internet. Vorrà dire che attraverso un oggetto che portiamo in tasca o abbiamo sulla scrivania, potremo potenzialmente accedere a 200 miliardi di oggetti o di connessioni possibili. Non sarà ovviamente così, perché i chip saranno anche nelle magliette capaci di avere come immagine un filmato al posto di una scritta o di una foto, o negli occhiali da vista che avranno lo zoom e la visione notturna (smart clothes e smart glasses: magliette e occhiali intelligenti. Sempre difficile capire perché a cose “stupide” come i computer bisogna conferire il dono dell’intelligenza). E nel 2009 verranno superati i tre miliardi di cellulari, che vorrà dire tre miliardi di persone potenzialmente interconnesse. E, nel 2013, 200 canali televisivi via Internet arriveranno sui nostri cellulari. A consentire ciò ci penserà la Banda Larga prima e la Ultralarga poi. E tutto questo tra dieci anni passerà attraverso l’infrastruttura invisibile di Internet. Insieme a molto altro. Proprio in questa incredibile rivoluzione dell’“interconnessione globale” sta il più grande impatto nella storia dell’uomo della prima “era” di Internet, la “Rete delle reti”. La seconda “era” sarà probabilmente ancora più forte: quella della migrazione del sapere globale sulla Rete, la “Rivoluzione digitale della conoscenza”, la “knowledge revolution” digitale. Ma questa è un’altra storia, ancora da scrivere in gran parte.

Più di duemila anni fa, Eraclito diceva che è impossibile bagnarsi due volte nella medesima acqua di un fiume: ogni istante non è mai uguale all’altro e noi non siamo mai gli stessi anche solo da un istante a qiello successivo.

Tutto cambia anche se non sempre riusciamo a percepire questo continuo cambiamento. Ogni tanto però è doveroso fermarsi, fare mente locale, ed osservare l’evoluzione avvenuta nel corso degli anni, magari osservando un mezzo in rapido mutamento: il Web.

E’ in quest’ottica che andrebbe letta questa interessante infografica…

the-internet-then-and-now_522756827e3ad

martedì 16 gennaio 2018

I sistemi operativi moderni sfruttano le più moderne conoscenze nel campo dell'informatica.

La storia dei sistemi operativi descrive l'evoluzione durante tutto il periodo di sviluppo dei calcolatori elettronici.

Essa si sviluppa parallela a fianco della storia del computer e, più in generale, della storia dell'informatica.

Solitamente un sistema operativo installato su computer fornisce anche degli applicativi di base per svolgere elaborazioni di diverso tipo.

Un sistema operativo è un software che fornisce all'utente una serie di comandi e servizi per usufruire al meglio della potenza di calcolo di un qualsivoglia elaboratore elettronico, spaziando dal più piccolo dei palmari al più potente tra i mainframe.
La scacchiera dei sistemi operativi
I sistemi operativi nascondono tutti i dettagli tecnici legati allo specifico hardware e architettura rappresentando le informazioni ad un alto livello, meglio comprensibile dall'uomo.


La storia dei sistemi operativi.


La storia dei sistemi operativi può essere suddivisa in varie generazioni, ognuna delle quali composta da esemplari sempre più evoluti, affidabili e veloci rispetto a quelli della generazione precedente. Le generazioni possono essere così schematizzate:
prima generazione – valvole e spinotti, assenza di sistema operativo;
seconda generazione – transistor e sistemi batch;
terza generazione – circuiti integrati e multiprogrammazione;
quarta generazione – sviluppo delle reti e avvento del personal computer.

Il secondo dopoguerra.

In un periodo delimitabile tra il 1945 e il 1955 gli elaboratori elettronici erano ammassi di valvole termoioniche, occupavano intere stanze, erano lentissimi e così costosi che potevano permetterseli soltanto grossi centri di calcolo o Università o sovrani particolarmente facoltosi. Inoltre questi calcolatori erano molto inaffidabili, in quanto le valvole che li componevano si rompevano spesso. In questo periodo non esisteva ancora il concetto di Sistema Operativo.
Console del sistema IBM 7090

Infatti il programma da eseguire veniva inserito ad ogni esecuzione in codice binario attraverso dei primitivi lettori di schede perforate e dopo alcune ore il risultato veniva inviato ad una stampante. Il programma doveva contenere tutte le istruzioni necessarie, comprese ad esempio le singole operazioni di input/output verso dispositivi fisici: queste procedure a basso livello andavano riportate identiche in tutti i programmi, a differenza dei sistemi odierni, in cui è il sistema operativo che le implementa, e nei programmi è necessario solo richiamarle.

Gli anni '50 e '60

Tra il 1955 e il 1965, grazie alla rivoluzionaria invenzione del transistor gli elaboratori (chiamati mainframe) divennero abbastanza affidabili da poter essere costruiti e venduti in serie, anche se erano comunque macchine grosse e costosissime tanto che gli unici acquirenti possibili erano ancora una volta i Centri di Calcolo, le Università e le banche.

Per eseguire dei programmi (o come venivano chiamati, job), un programmatore doveva scrivere il proprio programma su carta, trasferirlo su schede, caricarlo nel computer, attendere il termine dell'esecuzione e la stampa del risultato.

Tale operazione era molto dispendiosa in termini di tempo e non permetteva di sfruttare la CPU della macchina durante le lunghe fasi di caricamento di dati e programmi: non essendo infatti stata ancora introdotta la tecnologia di accesso diretto alla memoria (DMA) durante le fasi di input/output il processore era totalmente utilizzato per il controllo di queste operazioni.

È per questo che si adottò la soluzione del sistema batch (a lotti): l'idea di base era quella di dividere su macchine distinte le tre operazioni di caricamento dei dati, elaborazione vera e propria e stampa. Il calcolo veniva affidato ad un calcolatore centrale costoso come l'IBM 7094 mentre gli elaboratori satelliti utilizzati per le altre due operazioni erano macchine più economiche come gli IBM 1401.
I sistemi operativi moderni sfruttano le più moderne conoscenze nel campo dell'informatica.Twitta
Il sistema operativo di questi mainframe doveva erogare pochi semplici servizi: gestione dell'input/output, interpretazione dei comandi contenuti nelle schede controllo, e pilotaggio dell'esecuzione di programmi, sia quelli lanciati dall'utente, sia le utilità di sistema. I sistemi operativi tipici per questi elaboratori, per lo più programmati in Fortran e in Assembly erano il Fortran Monitor System (FMS) e l'IBSYS.

Gli anni '60 e '70

Dai primi anni sessanta cominciò a farsi strada il concetto di dispositivo virtuale e astrazione. Prima di ciò un programmatore che avesse voluto comandare ad esempio una stampante, doveva conoscere, nei minimi dettagli, il funzionamento a basso livello della periferica, mentre a partire dall'introduzione del concetto di periferica virtuale il sistema operativo avrebbe fatto da intermediario tra utente e periferica. Nello stesso periodo i sistemi operativi iniziarono a supportare il DMA e lo Spool.

Il DMA (Direct Memory Access) è il sistema che permette di trasferire interi blocchi di dati da memoria secondaria a memoria centrale in modo completamente indipendente dal processore, il quale può, nel frattempo, eseguire altre operazioni. Lo Spool (Simultaneous Peripheral Operations On Line) è un sistema che permette di gestire in maniera efficiente le code di job di stampa.


La multiprogrammazione.

Magnifying glass icon mgx2.svg    Lo stesso argomento in dettaglio: Multitasking.
In questo periodo vennero anche introdotte delle "politiche di ordinamento dei job". Essi venivano caricati ed eseguiti in maniera sequenziale, ma l'ordine di esecuzione dei programmi era gestito da opportune politiche implementate nel sistema operativo. Siamo ancora lontani da ciò che sarà poi il time-sharing supportato da tutti i sistemi operativi moderni, tuttavia è il germe che darà il via alla implementazione della multiprogrammazione negli anni successivi.

L'IBM System/360

Nell'aprile del 1964 l'IBM presentò una famiglia di computer chiamata IBM System/360, prima realizzazione di una netta distinzione tra architettura hardware e implementazione. Tutti gli elaboratori della suite, che andavano da piccole macchine a grandi mainframe utilizzavano varianti dello stesso sistema operativo, l'OS/360, che supportava sia il calcolo scientifico che quello commerciale. Tuttavia questa eccessiva diversificazione tra i diversi computer rese difficile scrivere codice efficiente che rispettasse tutti i requisiti che erano in conflitto tra di loro. Il risultato fu un sistema operativo enorme e molto complesso scritto da migliaia di programmatori. OS/360 conteneva centinaia di errori che resero necessarie diverse revisioni. Ogni nuova versione correggeva alcuni problemi, introducendone però degli altri.

Un esauriente rapporto sull'esperienza con OS/360 è descritto da Fred Brooks sul suo saggio sull'Ingegneria del Software intitolato "The Mythical Man-Month: Essays on Software Engineering". In questo e in molti altri sistemi operativi dell'epoca venne implementata la multiprogrammazione, che rendeva possibile la presenza di più programmi in memoria contemporaneamente.
Leggi anche: 9 sistemi operativi open source.
Questo rendeva necessaria la presenza di hardware specializzato per proteggere i programmi dalle reciproche interferenze. Quando un job in esecuzione aveva bisogno di effettuare una operazione di I/O il sistema operativo lo sospendeva e al suo posto faceva girare un altro job. Quando l'operazione di I/O si concludeva, il primo job tornava pronto all'esecuzione e attendeva il suo turno attendendo la sospensione di uno degli altri. Questi sistemi ottimizzavano l'uso delle risorse disponibili ma non lo sviluppo dei programmi, infatti il tempo che intercorreva tra il caricamento dei programmi e la disponibilità dei risultati era spesso di alcune ore, per cui il più piccolo errore poteva far perdere al programmatore un sacco di tempo.

L'evoluzione di Unix.

Schermata principale di Unix.
Dagli anni sessanta esiste il concetto di time-sharing: ogni utente dispone di un dispositivo di ingresso (la tastiera) e un dispositivo di uscita (un monitor o una telescrivente), ed ha la possibilità di inviare comandi al sistema operativo ottenendo subito una risposta. Infatti in questi sistemi con time-sharing un programma resta in esecuzione fino a quando esso richiede un'operazione di I/O, oppure occupa la CPU per più di un certo intervallo di tempo prestabilito (detto quanto temporale).
Nel 1962 venne realizzato al MIT il primo sistema di time-sharing su un IBM 7094: il CTSS. Fu in realtà il Multics la vera rivoluzione.

Venne sviluppato congiuntamente dal MIT, dalla General Electric e dai Bell Laboratories, ed era in grado di supportare centinaia di utenti in time-sharing. La realizzazione fu però molto più complessa del previsto, tanto che i Bell Laboratories abbandonarono il progetto. Tuttavia Multics introdusse molte nuove idee che influenzarono non poco i successivi sistemi operativi. Se da un lato esistevano questi supercomputer dall'altro negli stessi anni vi fu lo sviluppo dei minielaboratori, dei quali un importante esponente fu il PDP-1 del 1961 che costava "solo" 120.000 $ (cioè il 5% del prezzo di un IBM 7094) e che ebbe un gran successo.

Per questi sistemi vennero progettati appositi sistemi operativi, il più famoso dei quali fu senza dubbio Unix.

Unix fu progettato a partire dal 1969 da un gruppo di ricercatori della AT&T presso i Bell Laboratories, tra cui erano presenti Ken Thompson (che lavorò anche al progetto Multics), Dennis Ritchie e Douglas McIlroy. Esso prese notevole spunto dal padre Multics, e grazie all'ottimo lavoro di queste persone divenne un sistema molto interattivo, affidabile e ricco di funzionalità, tanto che, nelle sue varianti ed evoluzioni, tuttora domina il mercato delle workstation. Da esso furono realizzate varianti come Berkeley Software Distribution (BSD) e sistemi Unix-like come MINIX (usato in ambito didattico) e successivamente l'ormai famosissimo Linux sviluppato dallo studente finlandese Linus Torvalds. Oggigiorno i sistemi operativi "*NIX" sono conformi allo standard POSIX (che uniforma l'interprete dei comandi e le API dei programmi), offrendo una compatibilità reciproca di base necessaria a non stroncarne lo sviluppo.

Gli anni '80 ed i personal computer.

Verso gli anni ottanta, grazie alla tecnologia LSI (large scale integration) la costruzione di chip integrati divenne massiccia e portò all'abbattimento dei prezzi dell'hardware, facendo sorgere l'era dell'elaboratore personale o personal computer.



Queste macchine erano piccole, economiche ed avevano prestazioni simili a quelle dei calcolatori medio-grandi di 10-20 anni prima. I primi modelli erano dotati di sistemi operativi monoutente con accesso interattivo e supporto al time-sharing. Il più importante tra i primi sistemi operativi per personal computer era il CP/M-80 della Digital Research per le CPU 8080, 8085 e Z-80.

Era basato sui sistemi operativi della Digital Equipment Corporation specialmente quelli per l'architettura PDP-1. MS-DOS (o PC DOS quando fornito da IBM) era originariamente basato proprio sul CP/M-80.

La concorrenza tra Microsoft e Apple.

Steve Jobs era tra quelli che credevano nell'idea del personal computer. All'epoca era difficile immaginare cosa potesse farsene una persona di un computer in casa. Egli invece continuò per la sua strada fondando Apple Computer Inc. il 1º aprile 1976 assieme a Steve Wozniak e Ronald Wayne.

Jobs, dopo aver casualmente visto l'interfaccia a finestre sviluppata da Xerox Corporation qualche anno prima, si convinse che il futuro del personal computer sarebbe stato legato all'interfaccia grafica, e così Apple lanciò nel 1984 Mac OS il primo sistema operativo per personal computer con interfaccia grafica. Questa fu una vera rivoluzione tanto che nello stesso anno sarebbe nato l'X Window System in ambiente Unix e il 20 novembre 1985 Microsoft avrebbe commercializzato Windows.

All'inizio Windows non era definibile come un sistema operativo: era piuttosto un'estensione di MS-DOS. Fu con il rilascio di Windows 3.0, nel 1990, che Microsoft si impose sul mercato. Oltre alle maggiori performance che garantiva alle applicazioni rispetto alle versioni precedenti, Windows 3.0 forniva un ambiente multitasking migliorato rispetto alle precedenti versioni di MS-DOS, grazie all'introduzione del supporto alla memoria virtuale, e divenne così un degno rivale dell'Macintosh (su cui girava Mac OS) di Apple. A partire da Windows 3.1 fu introdotto il supporto alla multimedialità (perfezionato via via nelle successive release), mentre con l'introduzione di Windows 95 si passò definitivamente dal calcolo a 16 bit a quello a 32 bit.

Principali distribuzioni Linux.

Gli anni '90, l'avvento di Internet e la nascita di Linux.   


A fianco di Microsoft ed Apple il mercato delle workstation e dei grandi elaboratori era comunque dominato da UNIX. Un fenomeno interessante che iniziò a prendere piede da metà degli anni ottanta fu lo sviluppo delle reti di calcolatori, fenomeno che ha poi portato all'incredibile crescita di Internet. Nacquero così i "sistemi operativi di rete" e i "sistemi operativi distribuiti".

I primi altro non sono che normali sistemi operativi ai quali vengono aggiunti i software per il collegamento a macchine remote e quindi alle relative risorse condivise come file e stampanti. I secondi sono sistemi operativi che girano su sistemi a più processori oppure che inviano i processi da elaborare ad altri computer della rete. Essi sono dotati di particolari politiche di scheduling che permettono una efficace allocazione dei processi tra le CPU disponibili. Inoltre anche il sistema di archiviazione (il file system) è unico, anche se in realtà è distribuito tra vari nodi della rete.

Esempi della prima classe di sistemi di rete sono tutte le versioni di Windows dalla "Windows for Workgroups 3.1" e dalla "NT" in poi, mentre UNIX e derivati fanno parte di entrambe le categorie in quanto supportano entrambe le tecnologie.

Nel 1991 Linus Torvalds sviluppò un kernel Unix-like, capace però di girare sulla piattaforma x86. Così nacque Linux. Fu quando venne abbinato al progetto GNU di Richard Stallman, portavoce della filosofia del software libero, che iniziò la fortuna di GNU/Linux in quanto la combinazione risultava, e lo è tuttora, un sistema operativo efficiente ed affidabile.
Ubuntu
Un esempio di sistema operativo GNU/Linux: Ubuntu, con interfaccia grafica Unity

Gli anni 2000

A partire dal 2000 sono stati immessi sul mercato una grande varietà di sistemi di elaborazione dalle più disparate dimensioni e performance a costi contenuti; questo permette una diffusione pervasiva degli elaboratori elettronici nelle più diverse attività umane.

Inoltre sono oggi sempre più diffuse le interconnessioni tra i vari dispositivi in modalità sia wired che wireless. Tutte queste innovazioni hanno portato allo sviluppo di sistemi operativi per le più svariate architetture, in particolare per dispositivi handheld come smartphone e Tablet PC (Symbian OS, Android, iOS, Windows Phone, ecc.).

Per qualunque architettura venga sviluppato un sistema operativo moderno esso deve fornire il supporto, oltre a quanto visto sinora, a molteplici esigenze quali:

streaming audio/video (trasmissione ed elaborazione continua di dati multimediali);
supporto alle più diverse tecnologie di interconnessione (ad esempio Ethernet, Bluetooth e Wireless LAN);
integrazione di tecnologie per la fruizione di contenuti su Internet;
una efficiente gestione dell'energia.

La linea di sviluppo dei sistemi operativi moderni per il mercato consumer è principalmente incentrato su multimedialità, connettività e risparmio energetico.



Se ti è piaciuto l'articolo iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

Con il primo Macintosh nel 1984 Steve Jobs iniziò una vera e propria rivoluzione culturale.

24 gennaio 1984. È questa la data che segna il più grande cambiamento  avvenuto nel mondo dell’informatica: il 24 gennaio di 30 anni fa, infatti, era il giorno prescelto per la presentazione del primo Macintosh, il primo computer con una interfaccia grafica, anziché testuale, con tanto di mouse e facilmente utilizzabile da tutti, anche da chi non era un professionista dell’informatica.

Con la presentazione del primo Macintosh Steve Jobs iniziò una vera e propria rivoluzione culturale, portando il computer fuori dai centri di ricerca e dagli uffici per farlo diventare uno strumento alla portata di tutti, uno strumento che permetteva a chiunque di dare vita al proprio genio creativo.
macos-sierra-update-software-hero


Mac una vera e propria rivoluzione culturale.

Macintosh, anche abbreviato Mac, è una popolare famiglia di computer prodotti dalla Apple Inc. commercializzati a partire dal 1984 e facenti uso del sistema operativo macOS. Deve il suo nome a una popolare varietà di mela ("apple" in inglese), la McIntosh. La scelta del nome è stata attribuita a Jef Raskin, l'esperto di interfacce di computer che ne sviluppò il progetto.

Il Macintosh 128K (nome originale Macintosh, serie Classica) è stato il primo computer con interfaccia grafica e mouse di serie che riuscì a conquistare un vasto pubblico di utenti e ad entrare prepotentemente nel mercato. Con questo grande successo, Apple riscattò l'iniziale tiepida accoglienza riservata all'Apple Lisa, il suo predecessore, e dimostrò che l'idea del concetto di scrivania virtuale, che si basava su di una interfaccia WIMP (Windows, Icons, Mouse, Pointer), era vincente.

Con questa mossa, Apple riuscì a dimostrare che il paradigma WIMP veniva apprezzato a livello mondiale anche da neofiti o da professionisti che non fossero addetti del settore dell'informatica, che un'interfaccia grafica faceva presa e attirava la curiosità di grandi masse e che, infine, la semplicità e intuitività del concetto di mouse associato a una GUI desktop (appunto "scrivania" in inglese) apriva finalmente l'informatica domestica, hobbystica e professionale a un pubblico che, fino a quel momento, era stato timido e restio ad avvicinarsi a quel "misterioso" oggetto (così allora veniva considerato) che è il personal computer, visto come strumento di élite e non di uso comune.



Prima del Mac solo altre due piattaforme avevano offerto di serie il mouse e un'interfaccia grafica: il Lisa della stessa Apple, nel 1983 (primo computer costruito da Apple a disporre di interfaccia grafica e mouse), ma soprattutto lo Xerox Star, presentato nel 1981, un computer veramente all'avanguardia per i suoi tempi ma che non ebbe la fortuna che meritava.

Il Macintosh costituì l'evoluzione dei precedenti modelli di computer. Lisa, rivolto a un'utenza professionale, ebbe un successo limitato a causa dell'alto costo. Macintosh invece riscosse un grande successo commerciale.

La sua interfaccia grafica usava per la prima volta metafore facili da comprendere, quali il cestino, la scrivania, le finestre, gli appunti, aprendo l'uso del computer anche a persone non dedite all'informatica. Per questo motivo il Macintosh è considerato una pietra miliare nello sviluppo dell'industria del computer.

Caratteristiche del Macintosh 128.

Tutta la comunicazione fra macchina e utente è prevalentemente visiva, basata su icone e finestre di dialogo. Dal lato dell'utente, lo strumento principale di interazione con la macchina è il mouse, vero e proprio braccio idealmente portato dentro lo schermo, con il quale si possono “afferrare” e muovere gli oggetti mostrati a video. Ad esempio, per lanciare un programma, basta cliccare due volte col mouse sull'icona corrispondente.

La metafora della scrivania funziona anche per l'azione di spostamento degli oggetti: file e cartelle possono essere spostati in zone diverse del disco semplicemente trascinandoli con il mouse. Se un oggetto è trascinato “nel” cestino, viene cancellato.

All'accensione compare un'icona (metafora del Mac): all'utente è richiesta l'introduzione di un disco contenente il sistema operativo Mac OS. Il boot può avvenire indifferentemente da qualsiasi drive. Se il dischetto inserito è buono, un'icona di un Mac che sorride dà il benvenuto; in caso contrario il drive lo espelle e sul video compare l'icona di un Mac triste.

La principale caratteristica dell'ambiente scrivania è la presenza fissa dei menu sullo schermo.
 
Il menu mela gestisce le operazioni fondamentali. Contiene una serie di utilità tra cui:
appunti e archivio appunti: consente il trasferimento (mediante i comandi di taglia, copia e incolla) di testi, disegni, fogli elettronici ecc. da un'applicazione all'altra
orologio-sveglia, grazie al quale il sistema fornisce automaticamente data di creazione e ultima modifica di ogni file;
calcolatrice;
Leggi anche: Nozioni di base per il passaggio: scopri come trasferire i file esistenti di Windows al Mac.
blocco degli appunti
pannello di controllo (per regolare l'immagine di sfondo, la velocità del mouse, il volume dell'altoparlante ed altro).
 
In ambiente scrivania, le istruzioni possono essere date anche da tastiera. Il nome del file può essere lungo fino a 40 caratteri, invece degli 8 abituali. Inoltre, a ciascun file è assegnata un'icona, in modo da renderlo facilmente riconoscibile. I file possono essere visualizzati per icone, in ordine alfabetico, di tipo, di data, di dimensione.

Sulle finestre di dialogo appaiono pulsanti virtuali: dove ce ne sono due, all'utente è richiesta una scelta (per esempio, inizializzare o espellere un dischetto), dove ce n'è uno, all'utente è richiesta una conferma (ad esempio, se appare il messaggio “Questo elemento è protetto o in uso e non può essere eliminato”).

Il primo modello di Mac fu messo in vendita il 24 gennaio 1984, al prezzo di 2.495 dollari. Appena dopo il lancio riscosse molto successo, però alla fine del 1984 le vendite si ridussero a meno di 10.000 unità mensili a causa dei limiti hardware. L'assenza di una ventola faceva surriscaldare in modo anomalo il computer, tanto da conquistare il soprannome di "tostapane beige". Inoltre la scarsa memoria, l'assenza di un hard disk interno e la presenza di una sola unità floppy lo rendevano terribilmente lento.

Nel 1985, la combinazione del Mac col programma PageMaker e con la nuova stampante laser di Apple (la LaserWriter) diedero vita a una soluzione a costo relativamente basso per l'editoria e la grafica pubblicitaria, un'attività che sarebbe diventata nota col nome di desktop publishing. L'interesse per il Mac esplose, tanto che si diffuse ampiamente presso le tipografie, gli studi di grafica e le aziende editoriali.
mac
I modelli dal 1998 al 2006.

La CPU PowerPC.

Nei primi anni novanta molti ritenevano che l'architettura RISC delle CPU avrebbe presto superato nettamente la velocità, pure crescente, delle CPU del vecchio tipo CISC (come la serie m68k del Mac e la serie x86 di Intel). Venne annunciata un'alleanza tra Apple Computer, IBM e Motorola allo scopo di sviluppare una nuova serie di CPU RISC, detta PowerPC.

Il software esistente per Mac, che era stato scritto per la serie 68000 (compresa molta parte del Mac OS), fu fatto girare sui nuovi modelli dotati di PowerPC grazie a un'emulazione software.


Il Mac OS X

Nel 2001 il Macintosh fece un secondo fondamentale cambiamento, questa volta nel suo sistema operativo, passando dal vecchio Mac OS al nuovo Mac OS X il cui kernel è basato su Unix.
Modelli dell'ultima generazione.

Il passaggio a CPU Intel.

Durante il Keynote del WWDC 2005, Steve Jobs annunciò il passaggio dai processori PowerPC alle CPU Intel.

Con sei mesi di anticipo rispetto alle previsioni, il 10 gennaio 2006, durante il tradizionale Keynote del Macworld Expo, Steve Jobs presentò i nuovi iMac e il nuovo MacBook Pro con CPU Core Duo di Intel. Il giorno 7 agosto 2006, dopo soli 210 giorni e ben prima delle aspettative, la transizione ai processori Intel fu completata. Da quel giorno non sono più in commercio sistemi Macintosh con processori PowerPC.
Con il primo Macintosh nel 1984 Steve Jobs iniziò una vera e propria rivoluzione culturale.Twitta
Lo scopo era giocare sui difetti di Windows: i titoli degli spot furono, infatti, Virus, Spyware, Restart e altri (si ricorda, per inciso, che le leggi relative alla pubblicità comparativa negli Stati Uniti, sono molto differenti rispetto a quelle italiane).

Innovazioni.

Innovazioni introdotte o rese popolari dal Macintosh originale (o dai modelli successivi):
Un'interfaccia utente grafica
Le icone, il cestino, una scrivania, ecc.
L'uso di un mouse (o altri dispositivi di puntamento) nei Personal Computer
I concetti di "punta", "clicca" e "trascina" per eseguire azioni con un dispositivo di puntamento
Editing di testi e grafica di tipo WYSIWYG ("what you see is what you get", ovvero "ciò che vedi è ciò che ottieni")
Il floppy disk da 3.5" di serie
Sistema audio integrato nell'hardware (altoparlante compreso)
Un design ergonomico (migliorato ulteriormente con i modelli successivi, in particolare con l'iMac nel 1998)
Lettore CD-ROM, e successivamente SuperDrive, di serie che segnarono la fine del floppy disk col modello iMac del 1998 e l'adozione dello standard USB su tutte le macchine
Videocamera iSight integrata (modello iMac 2005)
mac-1984



Se ti è piaciuto l'articolo iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

Grafica, Multimedia e prospettive del lavoro nell'era di Internet e nuove tecnologie.

Si dice “grafico”, e poi quasi sempre si aggiunge l'aggettivo “pubblicitario”.

Segno dei tempi, certo. Ma gli spazi di applicazione e sviluppo di questo mestiere sono molto più ampi.

“L'advertising in realtà copre una fetta molto modesta della professione.

La grafica non serve solo a vendere un prodotto, ma è dovunque si tratta di costruire una visione del mondo.

Di disegnare un ambiente in modo da renderlo confortevole.
grafica

Grafica.

Il termine grafica indica genericamente il prodotto della progettazione orientata alla comunicazione visiva. La conoscenza delle strutture portanti e delle strutture modulari delle figure geometriche fondamentali rende possibile la ricerca di forme geometriche nuove ed un campo specifico in cui questo tipo di ricerca è utilizzato con grande vantaggio è proprio quello della grafica.

Oltre al concetto internazionale di graphic design (progettazione grafica) che intende l'attuazione di una precisa strategia di marketing prima e strategia creativa dopo, il termine può comprendere il concetto di grafica d'arte, settore orientato alla produzione in serie anche di opere artistiche, slegate quindi da una mera progettazione commerciale.
Grafica, Multimedia e prospettive del lavoro nell'era di Internet e nuove tecnologie.Twitta
L'espressione graphic design (letteralmente: progettazione grafica) nasce nel 1922, quando fu coniata da William Addison Dwiggins. Tuttavia fu utilizzata raramente fino al secondo dopoguerra; fino ad allora, i "graphic designers" erano chiamati "commercial artists".

Il settore del graphic design si è sviluppato drammaticamente negli ultimi decenni del XX secolo, in quanto l'alta tecnologia ha iniziato a giocare un ruolo preminente. Di conseguenza, oggi la professione non è più limitata a libri, poster e pubblicità, ma include anche motion e interactive media e altro. Comunque sia, il graphic designer contemporaneo è erede di una illustre ascendenza.

Gli scribi sumeri che inventarono la scrittura, gli artigiani egizi che combinarono parole e immagini nei manoscritti papiri, gli stampatori di blocchi cinesi, i miniatori medievali, e gli stampatori e compositori del XV secolo che progettarono i primi libri europei, fanno tutti parte della ricca eredità e storia della grafica.
multimedia

Multimedia.

La multimedialità è una forma di comunicazione caratterizzata dalla compresenza e interazione di più linguaggi (testi scritti, immagini, suoni, animazioni) in uno stesso supporto o contesto informativo. Il termine, composto dai termini latini multi- e media (plurale di medium = "mezzo", qui inteso come dispositivo di elaborazione delle informazioni), si è diffuso tra la fine degli anni ottanta e l'inizio degli anni novanta.
Leggi anche: Paint.NET è un software di elaborazione immagini e foto molto semplice da usare e rivolto a tutti.
Nel corso degli anni, il termine "multimedialità" ha assunto molteplici connotazioni. Secondo lo studioso R. Maragliano, la multimedialità può essere intesa come la confluenza di tre tradizioni mediali e culturali: quella della stampa, caratterizzata da oggettività, analiticità, sistematicità e chiusura; quella dell'audiovisione, dove sono presenti la soggettività, la globalità, l'apertura; quella dell'interattività, dove l'utente ha una funzione co-autoriale. Anche la ricerca psicologica ha contribuito ad ampliare il significato del termine, distinguendo due forme di multimedialità: come formato di presentazione che utilizza più canali sensoriali; come processo cognitivo che consente l'acquisizione di nuove conoscenze.

Caratteristiche.

Si parla di "contenuti multimediali", in ambito informatico, quando per comunicare un'informazione riguardo a qualcosa ci si avvale di molti media, cioè mezzi di comunicazione di massa, diversi: immagini in movimento (video), immagini statiche (fotografie), musica e testo. Ad esempio, un'enciclopedia multimediale (come la presente Wikipedia), a differenza di una normale enciclopedia cartacea, permette di associare ad ogni voce non solo la sua spiegazione testuale, ma anche fotografie, disegni esplicativi, filmati, suoni, commenti audio ecc.

Grazie alle potenzialità espressivo-comunicative, la multimedialità si è diffusa in ogni settore della cultura e società, dall'educazione al gioco, dalla documentazione allo spettacolo ecc. coinvolgendo ogni forma di comunicazione, anche se viene sempre più riferita o perfino fatta coincidere con i new media e il web, considerati multimediali fin dall'origine e per loro stessa natura.

Oggetti multimediali.

Per capire quando possiamo definire multimediale un oggetto o testo e poiché oggi si utilizza il termine multimedialità spesso in modo ambiguo, Giovanna Cosenza propone di chiarirlo attraverso il concetto semiotico di testo sincretico ovvero un testo in cui la stessa istanza di enunciazione mette in gioco una pluralità di linguaggi di manifestazione, cioè più sistemi semiotici eterogenei.

Spiega inoltre che il termine multimedialità è utilizzato in senso ristretto, intendendola come multisensorialità per l'utilizzo di molti canali sensoriali e molte oggetti espressivi, e in senso lato, come forma di comunicazione che si realizza attraverso una pluralità di media combinati in modo da generare una comunicazione nuova fruita in maniera multisensoriale, ma all'interno di una strategia unitaria.



Fino a pochi anni fa, multimediali erano comunemente definiti i CD-Rom e/o DVD in cui immagini, testo e suoni, combinati insieme, creavano un unico supporto da "leggere" unicamente su un computer. Oggi la multimedialità è molto di più: Internet e una maggiore capacità di gestire contenuti multimediali hanno trasformato il personal computer in un Mass Medium capace di trasformarsi in TV, radio o telefono, oltre che in libro o in macchina fotografica. Oggi, quindi, per multimedia non si intende più un contenuto legato a un'unica tipologia di supporto, ma un'informazione fruibile, condivisibile e modificabile ovunque e su diversi dispositivi, dal computer al palmare, al telefono, alla LIM (lavagna interattiva multimediale) recentemente entrata a far parte dei nuovi sussidi didattici multimediali della scuola italiana.

Evoluzione.

Con il termine multimedialità si fa riferimento ad ambienti che permettono l'utilizzo di altri sistemi simbolici oltre il testo stampato (parola scritta e immagine statica). La nascita del cinema e, successivamente, della televisione hanno consentito la creazione di ambienti multimediali veri e propri mediante l'utilizzo di immagini dinamiche e di suoni. Più recentemente, negli ultimi due decenni, la multimedialità ha subito trasformazioni verso due distinte direzioni che Calvani definisce "singolarizzazione" e "ipermedializzazione". Con il primo termine si intende il cambiamento che ha consentito uno spazio crescente all'attività del soggetto, mediante il passaggio da una multimedialità "fruita" (cinema, televisione) ad una multimedialità "costruita" intesa come ambiente di scrittura e di espressione personale. Con ipermedializzazione si fa riferimento alla dimensione "iper" ossia la possibilità di navigare o allestire più piste possibili non più solo unidirezionali.

I media considerati nella loro evoluzione storica possono essere concepiti come un "processo continuo", nel quale le nuove tecnologie diventano "ambienti di riproduzione" per le tecnologie più vecchie. La multimedialità può allora essere descritta come un sistema continuo composto di tecnologie di tipo informatico e telematico, di reti di distribuzione, prodotti off line, che riutilizzano i vecchi media digitalizzandoli.

Già nel 1995 Nicholas Negroponte preconizzava che quando tutti i media sarebbero divenuti digitali si avranno due risultati fondamentali: i bit si potranno mescolare facilmente, rendendo pervasiva la ricombinazione multimediale; nascerà un nuovo tipo di bit che parlano di altri bit, come etichette (oggi li chiamiamo tag); ne deriverà un altro cambiamento radicale nel panorama dei media[4]. L'inevitabile evoluzione che sta riformulando il concetto di multimedialità è quindi quella dei cosiddetti new media, ovvero quell'insieme di mezzi di comunicazione che utilizzano il linguaggio digitale nella codifica delle informazioni, che offre enormi vantaggi in termini di modularità, variabilità, interattività e automazione.

Altri autori parlano di emergere di rich media - visibili ad esempio nei formati pubblicitari online che fanno uso di audio, video, animazioni e tecnologia e che quindi vanno oltre i comuni banner grafici o i link testuali - in cui si evidenzia l'obiettivo di creare un'esperienza sempre più interattiva e coinvolgente per il fruitore, organizzata secondo modalità che non si potrebbero ottenere con i singoli mezzi considerati separatamente, seguendo quello due dei principi guida dell'evoluzione dei media, ovvero la metamorfosi e l'ibridazione.


Multimedialità in rete.

La multimedialità è divenuta un componente essenziale nei servizi offerti della Rete Internet all'interno del cosiddetto Web 2.0 e del paradigma del Web dinamico. I contenuti multimediali richiedono però una grande richiesta di banda poiché le immagini e più in generale le immagini in movimento (video) contengono una grande quantità di informazione rispetto a dati e audio.

La diffusione dei contenuti multimediali audio-video (es. video sharing, IPTV, streaming video, streaming audio ecc.) è resa quindi possibile dalla parallela diffusione di tecniche di compressione dati, sempre più efficaci, che riducono l'informazione ridondante associata alla trasmissione permettendo l'abbassamento del bit-rate associato cioè dunque l'uso di una banda minore, evitando la saturazione della capacità trasmissiva della rete. Inoltre i contenuti multimediali, come tutti gli altri contenuti Internet, possono fluire in best-effort cioè tramite semplice protocollo IP oppure con qualità di servizio garantita (es. tramite architetture Intserv o Diffserv) laddove sono richieste garanzie sulle specifiche di trasmissione a favore dell'utente (es. IPTV).

Multimedialità e interattività.

Talvolta la multimedialità viene erroneamente fatta coincidere con l'interattività. La confusione nasce dal fatto che spesso la multimedialità è affiancata dall'interattività: ad esempio, la citata enciclopedia multimediale sarà molto probabilmente anche interattiva, ovvero permetterà all'utente di interagire con essa (ovvero comunicare delle indicazioni al programma che gestisce l'enciclopedia, tramite il mouse o la tastiera, e ricevere da esso delle risposte sul monitor); in questo modo, l'utente potrà "dire" all'enciclopedia se di un certo lemma vuole la definizione testuale, oppure vuole vedere i filmati associati, o le foto, o ascoltare l'audio, ecc.

Del resto la progressiva sovrapposizione tra multimedialità e interattività rientra nel processo di convergenza che i nuovi media digitali portano con sé: una sempre maggior emulazione e simulazione dell'interazione comunicativa tra individui. In senso proprio si può quindi parlare di multimedialità interattiva solo laddove vi sia un sistema che stabilisce con il suo utente una relazione simile al dialogo prototipico - come studiato dal campo disciplinare denominato HCI, Human Computer Interaction (Interazione uomo-computer).

In ogni caso, pur nella loro diversità, multimedialità e interattività sono componenti o elementi nuovi ed essenziali dei servizi della Rete Internet all'interno del cosiddetto Web 2.0 ovvero del paradigma del Web dinamico.


Multimedialità e ipertestualità.

Altro termine che spesso crea confusione parlando di multimedialità è l'ipertestualità: l'ipertestualità è la caratteristica di un documento di utilizzare la struttura dell'ipertesto; il prefisso iper sta ad indicare la maggiore valenza di un documento ipertestuale rispetto a un documento tradizionale (cartaceo), dovuta al fatto che un documento ipertestuale non deve essere obbligatoriamente letto in modo sequenziale, ma si può saltare da una parte all'altra senza seguire nessun ordine prestabilito.

Per intenderci, la differenza tra un testo classico e un ipertesto è la stessa che passa tra un'audiocassetta e un compact disc: nel primo caso, per ascoltare un qualunque brano dovremo prima posizionarci opportunamente sul punto desiderato del nastro, mentre nel secondo potremo in qualunque momento ascoltare il primo, l'ultimo o un qualunque altro brano. A questo proposito, si utilizza a volte il neologismo "ipermediale" o "ipermedialità" per indicare più precisamente la fusione dei contenuti multimediali in una struttura ipertestuale. Ancora Negroponte sosteneva che il concetto di multimedialità includesse necessariamente idee come passare facilmente da un mezzo all'altro, dire la stessa cosa in modi diversi, trovando uno sbocco naturale in interfacce multi-modali.


Multimedialità, insegnamento ed apprendimento.

Sono ormai in molti a sostenere gli innumerevoli vantaggi che la multimedialità offrirebbe per favorire e migliorare l'apprendimento: i sistemi ipermediali sarebbero in grado di fornire rappresentazioni della conoscenza sfruttando differenti sistemi simbolici, permetterebbero di individuare e sviluppare prospettive di lavoro molteplici e diversificate, favorirebbero una migliore autoregolazione nell'apprendimento.

La multimedialità all'interno di una prospettiva integrata, sistemica, può essere pensata per formare: con la multimedialità, alla multimedialità, attraverso la multimedialità, nella multimedialità, sulla multimedialità.

Queste le prospettive presentate:
Formare con la multimedialità: da sempre in atto anche nella formazione di tipo tradizionale, prevede l'utilizzo della multimedialità per rendere meno monotono l'insegnamento; si traduce in una rottura della lezione frontale e in un innalzamento dei livelli medi di attenzione.
 
Formare alla multimedialità: quando si utilizza la multimedialità per costruire ipermedia. Questo sistema, cambia la prospettiva pedagogica dell'insegnamento-apprendimento, in quanto promuove una pedagogia della diversità intesa come valore aggiunto.
 
Formare attraverso la multimedialità: opportunità di utilizzare strumenti per favorire l'alfabetizzazione dei soggetti ai linguaggi non verbali e/o possibilità di mettere a confronto prospettive, modi di pensare diversi utilizzando la multimedialità.

Formare nella multimedialità: si fa riferimento alla formazione a distanza, oggi definita anche "on line education". La multimedialità diviene "ambiente di apprendimento", il docente un "facilitatore".
 
Formare sulla multimedialità: individua la multimedialità come oggetto di riflessione, per promuovere nei soggetti in formazione atteggiamenti corretti e consapevolezza critica, intesa come risultato di un percorso personale che prevede "attività di lettura critica" della multimedialità e "attività di analisi critica" del suo consumo.

I media digitali non sono solamente strumenti didattici. L'utilizzo dei nuovi media genera delle vere e proprie trasformazioni nel recepire, trasmettere e organizzare le informazioni sia nei docenti che nei discenti. È necessario considerare come le tecnologie provochino modificazioni nell'organizzazione della mente e analizzare i conseguenti cambiamenti che avvengono nei processi della conoscenza e della comunicazione.

Queste trasformazioni, approfondite dallo studioso Derrick de Kerckhove che ha introdotto il concetto di “cervello cibernetico”, impongono un ripensamento delle funzioni cognitive della mente e di conseguenza delle modalità stesse di insegnamento/apprendimento.

La multimedialità favorisce l'apprendimento immersivo. I giovani vivono in un ambiente sonoro, caratterizzato dal sistema dei media (tv, radio, telefono...), di conseguenza apprendono molto spesso anche inconsapevolmente mediante la partecipazione e condivisione di contenuti audio/video. Questa tipologia di apprendimento multimediale si differenzia nettamente da quello monomediale che avviene per astrazione, infatti l'apprendimento “gutenberghiano” è caratterizzato dalla tecnologia visiva, scrittura e stampa, che ha catapultato il mondo nel silenzio.

Pertanto la galassia multimediale ha restituito l'oralità, modificando anche le modalità di apprendimento. L'uso dei nuovi media muta anche l'ambiente scolastico, considerato cross-mediale perché l'ampliamento dei new media “costringe” necessariamente la scuola a rivedere non solo i metodi didattici, considerati ormai obsoleti, ma anche gli ambienti e spazi di apprendimento. Il digitale introduce delle novità nel ruolo dei soggetti coinvolti formatore/formando ma anche una rivisitazione della “cassetta degli attrezzi”.

Le caratteristiche dello spazio ridefinito possono essere riassunti nei seguenti punti: - la didattica svolta in aula implica presenza, mentre utilizzando ambienti multimediali lo spazio didattico assume una nuova dimensione perché la lezione si svolge in uno spazio "aperto". Questo comporta una nuova forma di interazione tra i soggetti: i ruoli definiti in presenza si trasformano, il docente non è più una figura “centrale”, il suo ruolo cambia verso quello di facilitatore. La comunicazione tra i membri della classe virtuale si trasforma passando dallo schema gutenberghiano, che prevedeva la comunicazione basata sul principio uno a molti, a quello reticolare molti-molti.

La concentrazione/dispersione è un'altra caratteristica che differenzia la didattica tradizionale da quello fruibile on-line, e in un ambiente multimediale. Si va da una concentrazione data dall'utilizzo del libro, alla dispersione dovuta alla molteplicità dei contenuti dell'attività formativa. Gli insegnanti, sono tenuti a rinnovare gli strumenti didattici quali penna, carta, lavagna, gessetti, in virtù dei nuovi media, integrandoli con e-book, computer, LIM, ecc.

Nell'ambito della multimedialità esistono osservazioni ed indagini che hanno evidenziato alcuni effetti negativi sul ricordo e sulla comprensione, conseguenti alla somministrazione del materiale in un formato multimediale.



Una spiegazione possibile è che la multimedialità, pur offrendo nuovi modi di esprimere i contenuti, spesso viene utilizzata con l'unico scopo di rendere maggiormente attraente il materiale, in modo da focalizzare su di esso l'attenzione del destinatario del messaggio, ma ignorando le seguenti condizioni che sono alla base dei principi dell'apprendimento multimediale:

Contiguità spaziale: gli studenti apprendono meglio quando le parole e le immagini corrispondenti sono presentate vicine;
 
Contiguità temporale: gli studenti apprendono maggiormente quando parole e immagini sono presentate nello stesso momento, poiché saranno più in grado di mantenere le rappresentazioni mentali insieme nella memoria attiva e di connetterle;
 
Coerenza: gli studenti imparano di più quando il materiale interessante ma non rilevante per il tema trattato – testo, figure, suoni - è escluso dalla presentazione;
 
Modalità: gli studenti apprendono di più quando il messaggio multimediale è presentato come testo parlato piuttosto che scritto;
 
Ridondanza: gli studenti apprendono maggiormente da animazioni e narrazioni piuttosto che da animazioni, narrazioni e testo.
Leggi anche: Unity Web Player Plugin per migliorare la grafica 3D dei giochi sul tuo browser.

Multimedialità e formazione.

Tra i soggetti che per primi in Italia si interessarono di fornire conoscenze e preparazione adeguata in questo settore si annovera l'Università Popolare di Biella,che nel 1995 iniziò una serie di corsi di formazione sulla multimedialità utilizzando gli strumenti che a quel tempo erano disponibili,avvalendosi dell'opera di tre docenti e di un laboratorio di tecnologie multimediali.

Il Laboratorio era stato progettato dall'ing.Carlo Mosca di Santhià, progettista di Voice Tutor, Self multimedia System, Media Mixer, e di un Tutorial di Formazione a distanza e continua.
Per facilitare l'apprendimento furono approntate dai docenti alcune utili dispense.

I corsi usufruirono anche del finanziamento della Regione Piemonte e del Ministero per i beni e le attività culturali, da cui l'Università Popolare di Biella era riconosciuta come Istituto di Cultura Generale.

Anche la consorella Università Popolare Subalpina seguì questo modello e in breve molti studenti e docenti si avvicinarono a questo settore che dischiudeva importanti orizzonti anche all'attività didattica.

Multimedialità e mercato.

Secondo una ricerca presentata dalla Rai[15] al 5° Forum mondiale della Tv, al Palazzo dell'ONU a New York, dedicata all'analisi delle nuove opportunità create dalla convergenza multimediale, i mercati europei della comunicazione valgono il 25 - 30% dei mercati mondiali, mentre nel settore dell'industria musicale rappresentano il 34% circa del valore complessivo mondiale. Nel mercato dell'elettronica di consumo, l'Europa totalizza il 22% del totale degli affari mondiali, mentre nel settore del broadcasting televisivo si arriva al 28% del mercato mondiale e nel settore radiofonico al 30%.

Un interessante studio sulla convergenza multimediale e apertura dei mercati espone le prospettive, i problemi, e le soluzioni della rivoluzione digitale che chiama in causa la convergenza multimediale da un punto di vista tecnologico e normativo.



Studi sulla multimedialità.

Precursori delle tematiche della multimedialità, in quanto fondatori del campo di studi sui media, sono stati Walter Lippmann, Harold D. Lasswell, Kurt Lewin, Joseph T. Klapper, Paul Lazarsfeld, Edgar Morin, Marshall McLuhan, Jean Baudrillard.

Ma lo studio dei media legati alla multi-medialità ottiene una sua specifica attenzione soprattutto a partire dall'introduzione dei cosiddetti new media, ovvero i media che sfruttano la versatilità e la potenza dei processi di digitalizzazione dell'informazione e della comunicazione. Pierre Lèvy ha approfondito l'impatto delle nuove tecnologie dell'informazione e comunicazione sulle società contemporanee e coniato il termine intelligenza collettiva. Lev Manovich si è interessato agli aspetti linguistici e semantici, con particolare attenzione al cinema.

Nicholas Negroponte ha tematizzato il digitale come dimensione pervasiva del vivere contemporaneo. Jan van Dijk ha approfondito gli aspetti sociologici legati alla cosiddetta CMC (comunicazione mediata dal computer), James E. Katz ha sviluppato studi sulla multimedialità unita alla Mobile Communication, Henry Jenkins ha introdotto il concetto di intermedialità, focalizzando l'attenzione sui processi di integrazione e convergenza che stanno avvenendo grazie alla digitalizzazione dell'informazione. Un altro autore che si è interessato di multimedialità è Richard E. Mayer, il quale sostiene che l'apprendimento viene favorito e supportato dall'utilizzo degli strumenti multimediali.
Se ti è piaciuto l'articolo iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

lunedì 15 gennaio 2018

Come funzionano gli antivirus e la ricerca euristica e perchè (spesso) falliscono.

Esiste una tecnica di riconoscimento detta "ricerca euristica" che consiste nell'analizzare il comportamento dei vari programmi alla ricerca di istruzioni sospette perché tipiche del comportamento dei virus (come la ricerca di file o routine di inserimento all'interno di un altro file) o ricercare piccole varianti di virus già conosciuti (variando una o più istruzioni è possibile ottenere lo stesso risultato con un programma leggermente differente).

Parti che compongono l'antivirus.
Con il termine antivirus in realtà si intendono più parti differenti, alcune indipendenti tra di loro:
1. Il file (o i file) delle firme: file che contiene tutte le firme dei virus conosciuti. Questa parte è fondamentale ed essenziale per il funzionamento corretto di qualsiasi altro componente.
antivirus4
2. Il binario in grado di ricercare il virus all'interno dell'elaboratore. Questo componente è l'antivirus vero e proprio.

3. Il binario che rimane residente e richiama l'antivirus ogni qual volta viene creato/modificato un nuovo file o viene modificata una zona di memoria per controllare che il computer non sia stato infettato con questa operazione.

4. Il binario che effettua gli update (aggiornamento) del file delle firme e di tutti i binari dell'antivirus.

Nota: alcuni software antivirus possono essere sprovvisti di una o di entrambe le parti 3 e 4. Limiti di un antivirus. 

 Come funzionano gli antivirus e la ricerca euristica.

Bisogna ricordare che l'antivirus è in grado di eliminare prima di tutto soltanto i virus che riconosce, quindi tutti i nuovi virus (per nuovi si intende sia virus che il proprio antivirus non riconosce, sia quelli che non sono ancora stati scoperti) possono passare completamente inosservati ed agire senza che l'antivirus intervenga.

Inoltre l'antivirus riesce ad intercettare il virus soltanto quando questo è entrato all'interno del computer e quindi ha già infettato un file o la memoria; a questo punto, a seconda del virus, può "disinfettare" il file o la memoria eliminando completamente il virus o in alcuni casi è costretto a mettere in "quarantena" il file contagiato ed eliminarlo per l'impossibilità di recuperare il file originario.

Occorre aggiornare continuamente il proprio antivirus per evitare che malware già riconosciuti (cioè già immessi nella lista del database online del software) non siano riconosciuti e quindi possano infettare il proprio PC.

L'antivirus inoltre è un grande utilizzatore delle risorse del computer e se viene avviato in background ogni volta che viene acceso il computer può comportare un forte rallentamento soprattutto nelle fasi iniziali (perché controlla prima tutta la memoria e poi tutti i file, che rientrano nella ricerca selezionata durante la fase configurazione, su disco); tale rallentamento è presente anche in tutte le fasi in cui si scrive su disco, benché ciò possa risultare più trascurabile. Per tali motivi l'antivirus accelera l'obsolescenza del proprio computer, creando la necessità di aggiornarne alcune parti o prenderne uno nuovo per ottenere delle prestazioni che siano accettabili per l'utente.

La scelta di un antivirus è una cosa molto complessa, anche perché antivirus diversi possono riuscire a rintracciare e quindi a controllare i nuovi virus prima di altri.
antivirus6
La scoperta di un nuovo virus dipende molto da quanto è "infettivo": più un virus si propaga velocemente, più veloce e semplice risulta essere la sua identificazione e quindi l'aggiornamento delle firme; se invece il virus tende ad essere molto poco "infettivo" ed a rimanere localizzato soltanto in una certa area, può passare molto tempo prima che venga intercettato e aggiunto alle firme.
Come funzionano gli antivirus e la ricerca euristica e perchè (spesso) falliscono.Twitta
Ci sono numerosi metodi per criptare e compattare un codice malware rendendolo così non rintracciabile da un antivirus; su questo fronte molti antivirus non sono attrezzati e riescono a fare ben poco, ma anche gli altri possono non essere in grado di rilevare un file infetto se non quando questo entra in esecuzione: il virus viene scompattato in RAM per essere eseguito e solo in questo momento l'antivirus sarà in grado di rintracciarlo.

Infine le compagnie che creano i software antivirus possono avere un incentivo finanziario molto forte a far sì che nuovi virus vengano creati continuamente e che il panico nel pubblico generi un continuo ricorso all'aggiornamento dei loro software. Questa è una delle accuse avanzate da varie parti ai produttori di antivirus, benché in realtà non vi sia attualmente alcuna prova che convalidi tale tesi.

Tecnologia Euristica.

La tecnologia euristica è un componente di alcuni antivirus che consente di rilevare alcuni programmi maligni non noti all'antivirus, cioè non contenuti nel suo database dei malware.

Questa tecnologia non sempre è presente all'interno di un antivirus e non sempre garantisce buoni risultati.

Modi per implementare la tecnologia euristica.
virus_protection
La tecnologia euristica può essere implementata in più modi, anche operanti in contemporanea. I metodi più utilizzati sono, in ordine crescente di efficacia:

* Analisi dei file: Ogni file a cui l'utente o il sistema fanno accesso viene analizzato per verificare che non abbia una struttura sospetta o contenga istruzioni potenzialmente pericolose. Se impostata ad un livello troppo sensibile, questo tipo di euristica può causare riconoscimenti errati di file "puliti" come pericolosi("falsi positivi"). Allo stesso modo se impostata ad un livello troppo permissivo può rivelarsi pressoché inutile. Questo approccio è utilizzato praticamente da tutti gli antivirus moderni.

* Analisi comportamentale: Ogni processo eseguito nel computer viene monitorato e si segnalano all'utente le azioni potenzialmente pericolose, come gli accessi al registro di sistema dei computer Windows o le comunicazioni con altri processi. Questo approccio è utilizzato da vari antivirus e firewall, tra cui ZoneAlarm (Funzionalità "OSFirewall"), Kaspersky ("Difesa Proattiva"), BitDefender ("Protezione Proattiva B-HAVE"), Comodo Internet Security ("Defense+") ecc...

* Sand-Box: Gli antivirus che utilizzano questa tecnica eseguono ogni processo del computer all'interno di un'area protetta, chiamata Sand-Box, e monitorano il comportamento del programma: se non vengono effettuate azioni pericolose il processo viene eseguito sulla macchina fisica, altrimenti il processo viene terminato e il relativo file eliminato o messo in quarantena. Questo approccio viene utilizzato da pochi antivirus in quanto degrada molto le prestazioni del computer ma garantisce i risultati migliori.

Il firewall: ulteriore protezione contro i virus.

Per quello che si è detto si capisce che per avere un sistema sicuro l'antivirus non è affatto sufficiente, occorre una protezione ulteriore: il firewall. Un firewall permette, se ben configurato ed usato correttamente, di bloccare i virus, anche se non conosciuti, prima che questi entrino all'interno del proprio computer e volendo permette anche di bloccare all'interno alcuni virus presenti nel proprio computer evitando così che essi possano infettare la rete a cui si è collegati.
Un firewall quindi può essere uno strumento aggiuntivo che impedisce ad un virus di infettare la macchina prima che possa essere individuato dall'antivirus (con la possibile perdita del file infetto). Inoltre permette di nascondere parzialmente o totalmente la macchina sulla rete evitando attacchi dei cracker o degli stessi virus.

Antivirus e sistemi operativi.

Con l'avvento di internet l'antivirus è diventato uno strumento quasi indispensabile per i sistemi operativi rilasciati da Microsoft, mentre altri sistemi risultano quasi immuni da virus; per questo motivo la maggior parte degli antivirus è realizzata per quel sistema operativo. Negli ultimi anni sono stati prodotti antivirus anche per altri sistemi, di solito usati come server, per poter controllare il flusso di dati, soprattutto e-mail, che poi finiranno sui computer desktop degli utenti che usano prodotti Microsoft.
Leggi anche: Come eseguire la scansione di un computer Windows con Chrome Software Cleaner.
La causa di una così alta diffusione dei virus su questa piattaforma è dovuta principalmente alla sua diffusione, sia per la più facile proliferazione, sia perché chi vuole creare un virus tende a farlo per il sistema operativo più diffuso[senza fonte]. Inoltre alcuni sistemi operativi non Microsoft sono visti dalla maggior parte degli utenti come più difficili da usare e quindi tendono ad essere usati da utenti più esperti con maggiore dimestichezza nell'affrontare i possibili problemi.

È vero che sui sistemi operativi derivati da UNIX, come Linux o Mac OS, la diffusione dei virus è in linea teorica molto più ostacolata soprattutto dalla gestione delle utenze che tende a far eseguire programmi da utenti con pochi privilegi, limitando dunque i danni che potrebbero scaturire dall'esecuzione di un codice malevolo; risulta quindi molto più difficile che questa operazione causi una compromissione del sistema operativo come invece accade spesso nei sistemi Microsoft.



antivirus

Antivirus e programmi.

I programmi che maggiormente permettono la diffusione dei virus sono i client di posta elettronica ed i browser, questo perché questi due programmi sono l'accesso diretto a due funzionalità indispensabili in internet: la posta e la navigazione web.

Un'altra tipologia di software informatico molto colpito dai virus è quella composta dai file di dati ricavati con Microsoft Office. Con questa suite è possibile creare all'interno dei file delle istruzioni (macro) che eseguono date funzionalità in modo automatico o sulla pressione di una determinata combinazione di tasti. Molti virus writer sfruttano questa potenzialità per allegare delle macro che sono in realtà dei virus.

In generale i virus sfruttano delle vulnerabilità nei sistemi informatici, usando a volte - in modo automatico - tecniche di penetrazione sviluppate dai cracker. Diverse organizzazioni, oltre ai produttori di software antivirus, si occupano di raccogliere le segnalazioni di vulnerabilità o attacchi, e renderle pubblicamente disponibili; tali organizzazioni sono normalmente note con l'acronimo di CERT ("Computer Emergency Response Team", squadra di risposta alle emergenze informatiche).

Client di posta.

Tra i client di posta spicca l'uso di Outlook Express, preinstallato, nella versione base, su tutti i sistemi operativi Microsoft; naturalmente anche altri client di posta, se funzionanti su sistema Microsoft, non sono immuni o totalmente immuni dall'essere un veicolo usato dai virus. Outlook Express unito all'inesperienza dell'utente, è forse la prima forma di diffusione di alcuni tipi di malware.

Outlook Express per default memorizza tutti gli indirizzi E-Mail dai contatti prelevati in modo automatico da tutte le mail ricevute o spedite, questo fa si che se un utente si iscrive, per esempio, ad una mailing list può alla fine avere un insieme di indirizzi di dimensioni considerevoli; questa base di dati viene sfruttata dai virus per spedire delle mail e per cercare di espandere l'infezione. I virus di ultima generazione sfruttano questi elenchi di indirizzi per nascondere il vero mittente, prendendo a caso due indirizzi, uno da usare come destinatario e l'altro da far risultare come mittente.

Il problema di base è dovuto all'utente che apre ed esegue gli allegati anche di mail che sono palesemente portatrici di virus, ma anche i buchi presenti in questi software hanno la loro parte. Per esempio Outlook Express ha sofferto di svariati buchi molto critici che permettevano, per esempio, l'esecuzione del virus appena la mail era ricevuta all'interno del proprio client (quindi senza aprirla) o appena la si apriva (nella firma è possibile inserire delle istruzioni, istruzioni usate per attivare il virus).

La prima causa di diffusione dei virus tramite i client di posta è l'esecuzione degli allegati e qui non esiste un client di posta che possa impedire la diffusione del virus se l'antivirus non riesce ad intercettarlo prima.

Browser.

Anche i browser possono essere un veicolo per l'infezione, basta che vi sia un buco di sicurezza (vulnerabilità) sfruttato da un sito WEB che si visita. Come per i client di posta si ha che su tutti i sistemi operativi di Microsoft l'utente si trova installato Internet Explorer e, anche a causa della sua diffusione, risulta proprio questo browser il più soggetto a questi tipi di attacchi, tanto che ultimamente è stato consigliato da più fonti di usare altri browser soprattutto se si fanno delle transazioni a rischio (per esempio se si accede al proprio conto corrente).

Client IRC e IM.

I clienti dei sistemi di messaggistica immediata posseggono la capacità di inviare e ricevere file ed inoltre spesso sono dotati di un linguaggio di scripting che è stato spesso sfruttato per diffondere virus, backdoor e dialer.

L'uso di questi programmi deve tenere in gran conto che l'utente che offre un file non corrisponde sempre necessariamente ad una persona reale, dal momento che molti virus si diffondono automaticamente. È consigliabile rifiutare gli invii a meno che non si abbia effettivamente richiesto o si desideri qualcosa da un utente conosciuto e non si abbia la protezione di un antivirus che effettua l'esame dei file, anche compressi, in tempo reale.

Possibile strategia per limitare al minimo i rischi di contagio.
La strategia che si può suggerire può essere suddivisa nei seguenti punti:
* informarsi su cosa è un virus, un antivirus ed un firewall; consultare vari manuali reperibili anche on-line per capire abbastanza a fondo il problema.

* informarsi su come funziona il proprio sistema operativo, il proprio client di posta ed il proprio browser in caso di "attacco" di virus, per poter capire quali sono le operazioni che permettono di limitare al minimo i rischi di contagio.

* quando si naviga in internet evitare di scaricare file eseguibilieseguibili e soprattutto di eseguirli senza avere la certezza assoluta che la fonte sia attendibile. Se l'antivirus dichiara che non ha rilevato nessun virus sul binario scaricato, questo non vuol dire che non è contagiato, ma semplicemente che l'antivirus non ne ha rilevato nessuno: infatti potrebbe contenere un nuovo virus o magari il vostro antivirus non è aggiornato.

* quando si naviga su internet evitare di scaricare add-on ai propri programmi di navigazione se non si è più che sicuri della fonte.

* quando si naviga in internet evitare di andare su siti che soprattutto offrono gratis cose che in realtà sono a pagamento, perché molte volte queste pagine cercano di sfruttare buchi presenti nel proprio browser per: installarvi un virus, reperire informazioni salvate sul vostro PC (esempio la carta di pagamento se fate acquisti on-line) o semplicemente permettere al cracker che ha costruito quel sito di prendere possesso da remoto del vostro computer.

* quando si riceve una e-mail da uno sconosciuto, soprattutto se ha un allegato, è sempre meglio eliminarla e mai aprire l'allegato od eseguirlo; se la mail arriva da un vostro conoscente ed ha un allegato non previsto o inaspettato magari chiedere conferma se l'ha spedito effettivamente lui.

* quando si ricevono mail con file eseguibili, magari spedite da un proprio conoscente, conviene sempre evitare di eseguirli. È meglio perdersi un filmato od un giochino divertente che vedere il proprio computer compromesso e doverlo reinstallare o far reinstallare da zero, magari perdendo tutti i lavori in esso contenuti.

* quando si spediscono e-mail evitare di includere messaggi in formato ms-office, ma spedirli in formato testo o altro formato non contenente macro; richiedere che anche i propri conoscenti facciano lo stesso quando spediscono delle mail a voi.

* abilitare, in ms-office, la richiesta per l'esecuzione delle macro; in questo modo sarà possibile sapere se il file contiene delle macro ed impedirne l'esecuzione.

* evitare di eseguire programmi non originali o per cui non è possibile controllarne la non compromissione (per esempio per tutti i file è possibile associare vari codici di protezione che permettono di identificare se il pacchetto è stato modificato da altri. Il più semplice di questi è l'MD5).

* informarsi di quali sono i prodotti che nella storia recente hanno mostrato maggiori falle e permesso un più semplice contagio da parte degli ultimi virus e se possibile sostituirli all'interno del proprio elaboratore con programmi simili, ma che risultano più sicuri

* controllare costantemente gli aggiornamenti di sicurezza per tutti i prodotti che si affacciano direttamente alla rete (sistema operativo, browser, client di posta, client irc, ...).

* mantenere sempre aggiornati antivirus, firewall ed altri programmi per la sicurezza.



Se ti è piaciuto l'articolo iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

domenica 14 gennaio 2018

Tra SEO, templates e Linux ecco i 10 post più visitati nel 2017 su Software Free & Open Source.

Guida a Google Tags Manager (GTM): Anteprima e debug dei contenitori.

Google Tag Manager, spesso conosciuto con l’acronimo di GTM, è uno strumento online gratuito di Gestione dei Tag offerto da Google. Tag Manager è uno strumento gratuito di Google, che consente di installare degli snippet...

Breve storia del software, licenze di utilizzo e distribuzione del software libero.

SOFTWARE OPEN SOURCE SETTEMBRE 23, 2017

Il termine software (usato in ambito informatico) è un vocabolo della lingua inglese costituito dall’unione di due parole, soft (morbido) e ware (manufatto, componente, oggetto). Sta ad indicare un programma o un insieme di programmi...

Guida a Google Tags Manager (GTM): utenti e autorizzazioni.

Google Tag Manager, spesso conosciuto con l’acronimo di GTM, è uno strumento online gratuito di Gestione dei Tag offerto da Google. Grazie all’inserimento di un unico snippet di codice nel sito/app mobile, denominato Contenitore, permette...

Come installare un sistema Linux: i dispositivi delle unità di memorizzazione.

Nato nel 1997, con il titolo di Appunti Linux, il manuale è stato in seguito rinominato, nel 2000, con il titolo attuale. L'opera era infatti inizialmente concepita per esigenze personali, che facevano riferimento al sistema...

Come installare un sistema Linux: scegliere la distribuzione.

Appunti di informatica libera è un vasto manuale d'informatica in italiano redatto da Daniele Giacomini tra il 1997 e il 2013 e dedicato principalmente al software libero, con particolare riferimento a GNU/Linux. L'opera, ritenuta completa...

Firefox 51 versione desktop offre il supporto per la riproduzione audio in formato FLAC.

Firefox 51 introduce alcune interessanti novità che contribuiscono alla già ottima esperienza utente del browser open source. La versione desktop è quella che ha ricevuto il maggior numero di novità, le più importanti della quali...

Project Quantum è il nuovo web engine di Firefox che sostituirà Gecko entro la fine del 2017.

Per sfruttare al meglio la potenza dei moderni dispositivi, la fondazione Mozilla ha deciso di aggiornare il componente del browser che effettua il rendering delle pagine. Project Quantum è il nome del web engine che...

10 librerie Javascript ottime per creare elementi dinamici nelle pagine HTML.

Lo sviluppo web è radicalmente cambiato negli ultimi anni. Fino a qualche tempo fa l’implementazione di elementi dinamici nella pagine HTML veniva realizzata con spezzoni di codice Javascript creati ad hoc, che spesso, all’aumentare della...

Come Ripristinare Mbr Windows da Ubuntu utilizzando lo strumento ms-sys.

Nei computer in cui Windows è installato accanto a una distribuzione GNU-Linux, quest'ultima gestisce solitamente l'avvio di entrambi i sistemi tramite il boot loader GRUB. Pertanto, nei computer dove sono presenti in dual boot Windows...

Come ottimizzare la pagina non trovata, ecco i 35 migliori messaggi di errore 404.

Un indirizzo internet digitato male o un errore del sito web ed ecco che si finisce in una pagina 404. Scoprite con noi le più divertenti di tutto il Web. Quando si naviga online, anche...

Random Posts