"Loading..."

Eureka!

Eureka!

È la sezione dedicata ai più giovani. È il canale attraverso cui puoi partire verso le tue scoperte. Contatta Logofilla scrivendo la tua richiesta, la tua curiosità, la domanda che da tempo vorresti fare ad uno scienziato.

Matematica

matematica

“Il matematico broccolo”

spirale di Fibonacci
O

ltre ad essere ricco di sali minerali e vitamine, il broccolo romanesco è anche generoso di contenuti matematici. Se n’è accorta Cinzia, che descrive questo ortaggio invernale come se fosse “un avvolgimento di broccolini, fatti a loro volta da un avvolgimento di broccolini ancora più piccoli, fatti a loro volta da un avvolgimento di broccolini ancora più piccoli, fatti a loro volta…”, e così all’infinito. O quasi.

Nel broccolo romanesco di fatto riconosciamo due motivi geometrici legati al suo modo di svilupparsi: una spirale e una inflorescenza frattale. Frattale? “Ma che vordì?”, sarebbe da chiedere. Frattale è un motivo geometrico che non cambia di aspetto se eseguiamo uno zoom. Il fatto che un broccolo sia costituito da un insieme di broccoli di misura minore, e che questi, a loro volta, siano costituiti da insiemi di broccoli e così via, fa sì che fotografie eseguite ad ingrandimenti diversi del vegetale mostrino apparentemente lo stesso soggetto.

Un broccolo non è solo questo, infatti le sue inflorescenze frattali si sviluppano lungo spirali di Fibonacci. Leonardo Fibonacci (matematico pisano vissuto tra XII e XIII secolo), immerso in ragionamenti volti a risolvere un problema di riproduzione di conigli, arrivò a definire una serie che può essere visualizzata come una spirale, per l’appunto. La sequenza di numeri di questa serie rispetta un criterio di “crescita”, secondo il quale ogni elemento si “genera” dalla somma dei due elementi precedenti: 0, 1, 1, 2, 3, 5, 8, 13, 21, 34, etc.

broccolo frattale

Proviamo a mettere insieme le due proprietà matematiche, spirale di Fibonacci e frattalità, immaginando di generare lungo i rami di quattro spirali di Fibonacci, ruotate di 90° una rispetto all’altra, altre spirali con le stesse caratteristiche ed una dimensione proporzionata alla distanza dall’origine delle spirali.

Il risultato è… un broccolo matematico!

Lascia un Commento

Fisica

fisica

“Un tiro libero da manuale... di fisica!”

Tiro libero basket
I

l tiro libero spesso rappresenta un vero e proprio “tallone d’Achille” per un giocatore di basket. La linea di tiro si trova ad una distanza orizzontale dal centro del canestro pari a 4.25 metri, un valore compreso tra quello della linea da 3 punti e quello della posizione da cui più frequentemente si tira a canestro. Anche i migliori tiratori al mondo hanno percentuali di successo che rientrano nella media per i tiri liberi.

Una domanda che, da sempre, si pone la quasi totalità dei cestisti professionisti e amatoriali (compreso Andrea!) è la seguente: esiste una “variabile”, che si possa controllare facilmente durante l’esecuzione del tiro, in modo da ridurre al minimo gli errori e aumentare la percentuale di realizzazione?

Dal punto di vista meccanico, siamo di fronte a un tipico caso di moto del proiettile: dall’istante in cui il pallone si stacca dalle mani del giocatore e raggiunge il canestro muovendosi solo per effetto della gravità, esso segue una traiettoria parabolica. Trascurando l’effetto dell’attrito con l’aria (la cui forza non ha di fatto grandi effetti in virtù della buona inerzia del pallone), questa traiettoria è prevedibile nei dettagli attraverso alcuni semplici calcoli.

Le buone pratiche trasmesse dagli allenatori indicano che per massimizzare il successo del tiro si debba lanciare la palla con la velocità più bassa possibile, così che, anche in caso di imprecisioni, ci sia sempre la possibilità che il pallone rimbalzi sul ferro o sul tabellone e che entri nel canestro, piuttosto che rimbalzare fuori dal campo. Per verificare questa ipotesi prendiamo in considerazione diversi angoli di tiro, ovvero l’angolo tra il braccio disteso durante il rilascio e l’orizzontale (tra i 30° e i 60°, i più “realistici”), e un intervallo di distanze tra la linea del tiro libero e il canestro che consentono comunque il successo del tiro: se consideriamo che il pallone passi esattamente al centro del canestro la distanza è di 4.25 metri; ma il pallone può transitare attraverso il canestro anche lambendo la parte anteriore interna del canestro oppure la parte posteriore interna. Nel primo caso il centro del pallone deve raggiungere una distanza di 4.15 metri dal giocatore, nel secondo di 4.35 metri.

Per poter ricavare la posizione iniziale del pallone, che varia a seconda dell’angolo di tiro, scegliamo una altezza del giocatore e una lunghezza del braccio rispettivamente di 1.91 m e 0.90 m.

Le leggi del moto del proiettile prevedono che verticalmente il modo sia uniformemente accelerato, dato che agisce l’accelerazione di gravità (g = 9.81 m/s2), e orizzontalmente sia rettilineo e uniforme, dato che non agiscono forze ad esclusione di quella di attrito che trascuriamo per entrambe le componenti del moto. La combinazione di questi moti porta all’equazione della traiettoria parabolica, la quale dipende da due parametri: la velocità iniziale e l’angolo di tiro. Fissato l’angolo di tiro, è possibile quindi ottenere un intervallo di velocità di tiro necessarie per raggiungere il canestro, posto a 3.05 metri di altezza:

Angolo di tiro | Intervallo di velocità iniziale della palla
30° | 9.03 m/s – 9.06 m/s
45° | 6.75 m/s – 6.88 m/s
50° | 6.62 m/s – 6.76 m/s
60° | 6.87 m/s – 7.03 m/s

Possiamo quindi concludere che un giocatore esperto dovrebbe essere in grado di sviluppare una sequenza di movimenti per lanciare la palla tale da selezionare un preciso angolo di tiro in corrispondenza del quale staccare la palla dalla sua mano e da spingere la palla imprimendo ad essa una velocità entro un certo intervallo di valori.

Considerando casi reali di alcuni giocatori NBA, si riscontra che l’angolo ottimale di tiro oscilla tra i 48° e 52°, e la velocità minima di tiro varia attorno ai 6 - 7 m/s, in perfetto accordo con le nostre previsioni!

“La fisica del pilota di F1 - Parte 1: sfida alle leggi dell'attrito”

Charles Leclerc
T

utto ebbe inizio nel 1950. Da allora le corse di F1 hanno alimentato lo sviluppo di tecnologie all'avanguardia per spingere le competizioni al limite delle possibilità, rendendole emozionanti e spettacolari. Lorenzo ha ceduto, come molti altri, alla seduzione di questo sport, che ora segue non solo per passione della velocità ma anche per passione della scienza.

La corsa nel circuito si svolge secondo due fasi fondamentali: il rettilineo e la curva. Nel rettilineo il mezzo è soggetto a spinte longitudinali che ne incrementano efficacemente la velocità nel tempo. In questo tratto le spinte laterali sono assenti e pertanto non ci sono fattori evidenti che possano far perdere l’aderenza degli pneumatici al suolo.

Al contrario, quando l’auto entra in curva, il moto cambia da rettilineo a circolare. Una volta che la vettura è entrata in curva, alcune forze intervengono lateralmente al fine di poter variare la traiettoria del mezzo. L’origine di queste forze sta nel contatto tra la superficie degli pneumatici e quella del suolo. Finché questo contatto è mantenuto (il mezzo “tiene” la strada) il pilota sterzando può portare a termine la deviazione del mezzo. Ma se per qualche motivo il contatto viene a mancare, cioè il mezzo perde aderenza, esso inizia a seguire una traiettoria rettilinea tangente al punto di perdita di aderenza.

Che cosa comporta questa pericolosa eventualità?

L’auto in moto rettilineo a velocità costante distribuisce il suo carico uniformemente sulle quattro ruote. Nel momento in cui la vettura si accinge a percorre la curva, avviene normalmente una decelerazione; questa azione porta ad uno spostamento di carico verso l’avantreno e lateralmente, in direzione del lato esterno alla curva, caricando inevitabilmente in maniera sbilanciata gli pneumatici. Una volta che la vettura è entrata in curva e ha raggiunto il punto di corda, il pilota tende ad accelerare gradualmente, modificando nuovamente la posizione del carico, il quale si sposta così di nuovo posteriormente. Spostando il carico sul retrotreno si indebolisce l’aderenza degli pneumatici anteriori, i quali garantiscono la tenuta della traiettoria.

Per poter stimare qual è il limite massimo di velocità oltre la quale si perde aderenza, occorre conoscere alcuni dati: il raggio di curvatura della traiettoria e il coefficiente di attrito statico (μ) degli pneumatici sul terreno. Quest’ultimo dato ci consente di sapere qual è la forza massima che può essere applicata lateralmente al veicolo senza che questo subisca spostamenti radiali rispetto all’arco di circonferenza percorso. La forza di attrito massima FA è infatti il prodotto di questo coefficiente per la forza peso del veicolo: FA = M×g×μ, dove M è la massa del veicolo (circa 750 Kg per una F1) e g l’accelerazione di gravità (9.8 m/s2). Questa forza è anche responsabile della deviazione della traiettoria del veicolo, cioè dell’accelerazione centripeta ac associata al moto circolare a velocità v lungo una circonferenza di raggio R: ac = v2/R, da cui si ottiene una forza centripeta Fc = M×v2/R. Pertanto deve risultare che FA = Fc, ovvero M×g×μ = M×v2/R. Questa uguaglianza ci consente di valutare la velocità limite oltre la quale si perde aderenza: v = (μ×g×R)1/2, la quale, come si nota, non dipende dalla massa del veicolo! Considerando un valore del coefficiente di attrito statico pari a 1.8 e un raggio di curvatura tra 60 e 90 metri, questa velocità risulta compresa tra 120 e 140 km/h.

Sappiamo però che in corrispondenza di alcune curve, come ad esempio la parabolica del circuito di Monza, le auto superano anche i 300 km/h! Come fanno a mantenere la strada con velocità che superano di più del doppio quella limite? La risposta sta proprio nella geometria della curva, in quanto nelle paraboliche il piano stradale è inclinato verso l’interno della curva in modo tale da compensare quasi del tutto la componente laterale delle spinte.

Quasi del tutto…, dato che, come ricordiamo, in occasione del Gran Premio Heineken d’Italia del 6 Settembre 2020 Charles Leclerc ha perso aderenza imboccando proprio la parabolica del circuito di Monza!

“Un tiro ad effetto... Magnus!”

effetto Magnus
U

na pallina da tennis colpita in un determinato modo può ingannare l’avversario, inducendolo a sbagliare e quindi a perdere il punto. La passione per il tennis di Gaia è scaturita guardando diversi tornei di questo sport trasmessi in televisione e osservando gli stili di gioco e i diversi modi con cui i tennisti colpiscono la pallina con la racchetta. Gaia ha praticato questo sport e ha voluto studiare e approfondire un fenomeno fisico che caratterizza il tennis attraverso i colpi di backspin e topspin. Si tratta dell’effetto Magnus.

L’effetto Magnus è un fenomeno fisico scoperto da Heinrich Gustav Magnus (Berlino, 1802 – 1870) e legato alla fluidodinamica. Esso agisce nel momento in cui si imprime ai corpi in traslazione entro un fluido, come ad esempio una pallina da tennis colpita dalla racchetta, anche una particolare rotazione. La pallina coinvolta in questa roto-traslazione non segue più una traiettoria parabolica come quella di un proiettile (Vedi Eureka per Valerio Casati! Softair, ovvero un’aria tutt’altro che tenera) ma subisce importanti deviazioni. Dato che il corpo è dotato sia di moto rotatorio sia traslatorio, la velocità del fluido in cui si muove il corpo varia attorno ad esso a seconda del verso di rotazione. Questo è dovuto al fatto che un corpo in rotazione trascina con sé un sottile strato di fluido a contatto con esso, creando una serie di strati di fluido rotanti in movimento lungo circonferenze concentriche.

L’effetto Magnus è ben evidente nell’esecuzione del colpo di backspin nel tennis, dove la pallina viene colpita “di taglio” per imprimere una velocità di rotazione VR rispetto alla velocità di traslazione VT nel senso indicato dalla Figura. In questo modo alla pallina viene impressa una rotazione che permette di ottenere una particolare traiettoria non parabolica: la pallina sembra galleggiare in aria, perdendo quota molto lentamente mentre si avvicina nel campo avversario dopo aver passato la rete.

Come si origina questa spinta che tende a sostenere la pallina in volo?

A causa della combinazione del moto di traslazione e di rotazione della pallina, le particelle di fluido intorno ad essa si spostano con velocità inferiore nella parte sottostante la pallina, e con velocità superiore nella parte sovrastante la pallina. Come previsto dall’equazione di Bernoulli, questa configurazione di velocità in un fluido comporta che la pressione del fluido sottostante risulta maggiore della pressione del fluido sovrastante. È possibile calcolare la forza P, chiamata portanza, che agisce sulla pallina nel momento in cui viene colpita con un colpo di backspin. Per questo calcolo ci si serve della seguente formula:

P = 1/2×d×VT2×S×CP

dove d è la densità del fluido (aria), VT è la velocità con cui è colpita la pallina, S è la superficie della pallina e CP è il coefficiente di portanza (grandezza adimensionale). I dati che servono per avere una stima di massimo della portanza sono i seguenti:

raggio pallina r = 3.4 cm = 0.034 m; S = 4×π×r2 = 0.015 m2; VT = 150 km/h = 42 m/s; d = 1.3 kg/m3; frequenza di rotazione f = 3400 giri/s = 57 giri/s; CP = VR/VT = 2×π×r×f/VT = 0.29.

Sostituendo tutti i dati nell’equazione per il calcolo della portanza si ottiene una portanza di 5.0 N. Questa forza equivale alla forza peso di un oggetto di massa pari a circa mezzo chilogrammo!
Per un colpo di topspin il discorso è analogo ma, al contrario del backspin, esso genera una portanza diretta verso il terreno, forzando la precipitazione della pallina.

Si può concludere che l’effetto Magnus ha un’importanza rilevante nel gioco del tennis. Il backspin e topspin impediscono all’avversario di intuire facilmente la traiettoria seguita dalla pallina, inducendolo ad un errore.

E voi? Sareste in grado di prevedere la traiettoria di un oggetto in roto-traslazione?

Se passate vicino alla Gordon Dam in Tasmania fateci sapere…

“Uno studente, un esperimento e una moka”

moka
S

arà perché quando si inizia a studiare seriamente si sente il bisogno di un po’ di carica in più. Sta di fatto che il pensiero fisso di Andrea negli ultimi mesi è assicurarsi di poter godere quotidianamente di un buon caffè. A tal punto che il desiderio di capire con quali meccanismi si innesca l’intima interazione tra acqua e grani macinati da cui si origina l’agognata bevanda lo spinge ad uno studio matto e disperatissimo.

Troppo semplice lasciare in infusione la polvere di caffè in acqua calda, decantare il miscuglio e servire. Procedimento di fatto appartenente alla tradizione di alcuni paesi del medio oriente, dai quali, attraverso l’inventiva italiana, è derivato il nome dell’apparecchio più diffuso nel nostro paese attraverso cui abbiamo fornito un metodo alternativo per preparare il caffè: la moka!

Una moka in sostanza sfrutta l’espansione del vapore acqueo indotta dal riscaldamento per spingere l’acqua calda attraverso la polvere di caffè trattenuta da un filtro, per ricavarne un infuso ad una temperatura ottimale e privo di sospensioni solide. Il metodo si basa sullo sfruttamento di una ingegnosa distribuzione di sovrappressioni…

La preparazione di una moka è molto semplice. 1-la caldaia va riempita fin sotto la valvola di sicurezza, altrimenti la concentrazione di vapore rischia di trasformare la caffettiera in una bomba. 2-il filtro va riempito con la polvere di caffè; più la polvere viene pressata, più il caffè avrà un sapore robusto. 3-mettere il filtro nella caldaia, avvitare insieme caldaia e raccoglitore, mettere la moka sulla fiamma a bassa intensità.

Ora, mentre aspettate che la moka faccia il suo dovere, godetevi l’articolo.

Quando una moka per due persone viene messa sul fornello, la situazione nella caldaia è la seguente: l’acqua è a circa 20°C e la pressione dovuta alla sua evaporazione è di circa due centesimi di atmosfera. La fiamma fornisce calore, che passa dalle pareti della caldaia all’acqua e la pressione di vapore aumenta. Di conseguenza la pressione che preme uniformemente sia sulle pareti sia sull’acqua aumenta. L’acqua, essendo un fluido incomprimibile, viene spinta attraverso l’imbuto del filtro, dove raggiungerà la polvere e continuerà a salire fino al raccoglitore. Ma parliamo di numeri: la prima goccia d’acqua che arriva al filtro ha una temperatura di 80°C ed è soggetta a una pressione circa 1.5 volte maggiore di quella atmosferica. In seguito, alla goccia servono solo pochi centesimi di atmosfera di sovrappressione per attraversare la polvere; questo dato è stato ricavato grazie alla legge della filtrazione lineare di Henry Darcy, che prevede che la sovrappressione sia direttamente proporzionale alla massa di fluido, alla sua viscosità e allo spessore del filtro, e inversamente proporzionale al tempo di filtrazione, al coefficiente di filtrazione (che per la polvere di caffè ha un valore assimilabile a quello della sabbia fine), alla superficie dell’imbuto e alla densità del fluido. Quando poi sentirete l'inconfondibile gorgoglio della moka, la fiamma deve essere subito spenta. Il livello dell’acqua nella caldaia è appena al di sotto dell’imbuto del filtro e quello che sta salendo nel raccoglitore non è altro che vapore alla temperatura di quasi 100 °C, spinto dalla caldaia alla pressione di circa 2 atmosfere! Si raccomanda di rispettare un accorgimento: quando la caffettiera ha finito la fase eruttiva, mescolate il caffè nel raccoglitore, poiché il caffè tende a stratificarsi: sul fondo si trova un caffè dolce e aromatico alla temperatura di 70 °C, mentre in superficie un caffè più intenso e amaro alla temperatura di 90 °C circa.

A chi fosse interessato ad approfondire meglio questo studio, Andrea consiglia l’articolo di Concetto Gianini pubblicato nel 2007 sulla rivista scientifica American Journal of Physics (Vol. 75, pp. 43-47, DOI: 10.1119/1.2358157)

A questo punto il vostro caffè dovrebbe essere pronto!

“Quanto, canta!”

quanti di energia
E

sistono dei Quanti che amiamo particolarmente e a cui siamo abituati. Sono le note musicali. La loro natura quantizzata, cioè impacchettata e discreta, è rappresentata molto chiaramente dalla tastiera di un pianoforte: ognuno degli 88 tasti emette un suono che corrisponde ad una specifica frequenza sonora. Le frequenze emesse da un pianoforte coprono uno spettro che va da 27.5 oscillazioni al secondo (Hz) a 4186 Hz, nel rispetto dell’accordatura secondo cui si attribuisce alla nota la centrale (A4) la frequenza di 440 Hz. La nota più bassa (A0) è molto prossima al limite degli infrasuoni (20 Hz), mentre quella più alta (C8) è ancora lontana dal limite posto a circa 20˙000 Hz degli ultrasuoni. Il passaggio da una nota all’altra non è continuo, ma avviene solo tramite dei salti: le frequenze comprese tra un tasto e l’altro sono proibite nel pianoforte. Nella sequenza cosiddetta cromatica dei suoni, il rapporto tra la frequenza di una nota e quella della nota immediatamente adiacente si mantiene costante ad un valore pari alla radice dodicesima di 2. In questo modo si assicura che tra due note con frequenza l’una il doppio dell’altra (le cosiddette ottave, come il do centrale, C4, e il do successivo, C5) ci siano altre 11 note con rapporti costanti tra le loro frequenze.

Questa relazione tra le frequenze comporta che la differenza assoluta in frequenza tra note uguali appartenenti ad ottave differenti sia diversa: la dimensione degli scalini che separano note successive aumenta muovendosi da sinistra a desta della tastiera. Il controllo dei rapporti piuttosto che delle differenze tra le frequenze è giustificato da uno degli scopi fondamentali della musica: creare sensazioni attraverso la generazione simultanea di più note. Essendo esse, come tutti i suoni, delle onde, per controllare il modo con cui interferiscono tra loro occorre controllarne i rapporti e non le differenze in frequenza.

Ma se il regno della musica è quantizzato e quello degli atomi è governato dalle leggi della meccanica quantistica, sarebbe possibile metterli in relazione?

Certo. Per farlo consideriamo il più semplice degli atomi, l’idrogeno, costituito da un nucleo con una carica elementare positiva (il protone) e da un solo elettrone con carica elementare negativa. Il fisico danese Niels Bohr nei primi anni del ‘900 fornì al mondo la prima decrizione della struttura quantizzata dell’atomo di idrogeno illustrando che i livelli energetici che può occupare l’elettrone sono discreti e possono essere etichettati da un numero quantico n che assume valori interi positivi all’interno di una espressione semplicissima: En = -13.6/(n)2. L’energia En è indicata in figura con una unità di misura “a portata di elettrone” che si chiama elettronvolt (eV). Tutti i livelli con valore frazionario di n sono proibiti: sono “orbite” che l’elettrone non può occupare. L’elettrone può “cantare” non semplicemente quando occupa uno scalino, ma nel passaggio tra uno scalino e l’altro: in questo salto, se è verso il basso, cioè verso il nucleo, l’elettrone emette un lampo di luce (che chiamiamo fotone) con una energia corrispondente a quella del salto di livello. Il salto più ampio che a esso è concesso è quello da n = ∞ a n = 1, pari a 13.6 eV. Durante questo salto l’elettrone emette un fotone avente un’energia pari a quella delle radiazioni ultraviolette. Per tradurre in canto questo salto e anche tutti gli altri, faremo corrispondere a questa emissione la frequenza sonora più alta possibile riproducibile con il pianoforte: l’ottavo do (C8), con una frequenza sonora di 4186 Hz. Tutti i salti che da n > 1 portano al livello finale n = 1 costituiscono la serie di emissioni attribuita allo scienziato americano Theodore Lyman. I salti che portano ai livelli finali n = 2, 3, 4 e 5 costituiscono le serie di emissioni attribuite rispettivamente agli scienziati Johann Jakob Balmer, Friedrich Paschen, Frederick Sumner Brackett, August Herman Pfund.

Se a questo punto traduciamo in note di pianoforte i salti presenti in una delle serie sopra elencate, rispettando la proporzione precedente tra frequenza sonora ed emissione di fotone, uno dei canti che l’elettrone genererebbe potrà essere il seguente:

“Piccola riflessione sul pendolo di Galileo”

pendolo di Galileo
V

incenzo Viviani (1622-1703),ultimo discepolo e primo biografo di Galileo Galilei, racconta che osservando l’oscillazione della lampada della cappella Aulla a Pisa, una volta usata nel Duomo, il suo maestro “inventò quella semplicissima e regolata misura del tempo per mezzo del pendulo...”. Si tratta ovviamente dell’isocronismo del pendolo per piccole oscillazioni. Se infatti discostiamo questa lampada di 5° o di 15° dalla verticale, il periodo di oscillazione (tempo necessario per compiere un’oscillazione completa) è lo stesso, anche se nel secondo caso lo spazio che la lampada deve percorrere è, in prima approssimazione, tre volte maggiore che nel primo.


Schematizzando la lampada come un pendolo semplice, in cui la massa m è appesa ad un vincolo tramite un filo inestensibile di lunghezza l (in metri) e di massa di molto inferiore a m, il periodo di oscillazione T (in secondi) è dato dalla seguente formula:
T = 2π√l/g

dove g rappresenta l’accelerazione di gravità (9.81 ms-2).

Prendiamo un filo di nylon e, ad uno dei suoi estremi, appendiamo un bicchiere di plastica riempito a metà di acqua. Fissiamo l’altro estremo del filo sull’architrave di una porta, prestando attenzione affinché la distanza della massa di acqua sia ad un metro dall’architrave. La formula ci dice allora che T ⁓ 2 s. Servendoci di un goniometro e di un cronometro possiamo verificare l’isocronismo del pendolo.

Se ripetiamo l’esperimento riempiendo fino all’orlo il bicchiere (ed eventualmente regolando un poco la lunghezza del filo), osserviamo che il periodo non è cambiato anche se la massa è circa raddoppiata. La massa non compare infatti nella formula. Se ripetiamo l’esperimento più volte riducendo progressivamente (da un esperimento all’altro) la massa d’acqua all’interno del bicchiere, il valore costante del periodo è confermato. Può essere utile riportare i dati raccolti in una tabella e visualizzarli anche su un grafico.

Durante l’esecuzione dell’esperimento però, ci si accorge che usando masse sempre più piccole (alla fine con il solo bicchiere vuoto) il numero di oscillazioni compiuto dal pendolo prima di fermarsi si riduce influenzando l’incertezza della misura.

Cosa succede?

Il pendolo lentamente si ferma a causa degli attriti. Supponendo di considerare principalmente l’attrito dovuto alla resistenza dall’aria durante l’oscillazione del pendolo (Fv), esso aumenta o diminuisce in proporzione alla velocità v con la quale si muove il corpo:
Fv = -B×v

dove B è un numero che dipende dalla geometria del corpo e dalle caratteristiche fisiche dell’aria.

Ne consegue che se il corpo è provvisto di una massa relativamente grande, questa garantisce che la forza di attrito abbia un minore effetto sulla variazione della loro velocità (decelerazione). Al contrario, corpi poco massivi vengono velocemente arrestati dalla resistenza dell’aria (la decelerazione del corpo a =-B×v/m è inversamente proporzionale alla massa dell’oggetto stesso, a parità di altre condizioni).

attrito viscoso

La lampada originale osservata da Galileo (si veda la foto riportata), con la sua massa di qualche chilogrammo, può quindi compiere molte oscillazioni ad angoli via via decrescenti prima di fermarsi. Questa caratteristica ha permesso a Galileo di compiere una serie di misure del periodo molto precise.

“Il tuffo che quadra”

tensione superficiale
E

nrico trascorre una vacanza 2019 indimenticabile. A renderla tale hanno contribuito giornate di sole lunghissime, acque tiepide e cristalline e, forse più di tutto, una foto che lo immortala in una tra le sue migliori prestazioni atletiche: un tuffo dagli scogli eseguito da una altezza da brivido.


Dopo una serie di evoluzioni aeree che hanno lasciato di stucco la folla di spiaggianti, Enrico raggiunge lo specchio d’acqua e l’abilità di sua zia le consente di sincronizzare lo scatto che rimarrà nella storia.

Senonché, in questa foto pare ci sia qualcosa di troppo che… quadra!

La famiglia di Enrico è unanime nel ritenere senza eguali il talento di Enrico e di sua zia, uno per le sue abilità sportive, l’altra per la malizia tecnica. C’è anche, a ragion veduta, accordo unanime nel riconoscere qualcosa di fortemente anomalo nel soggetto della fotografia, in quanto la presenza di spigoli e pareti piane nel mondo dei liquidi, e in particolare dell’acqua, come quelli che pare incornicino a rettangolo la testolina di Enrico, sembra parecchio innaturale.
Di fatto noi siamo abituati a osservare che volumi di liquidi in condizioni di equilibrio assumono forme sferiche, come le gocce d’acqua che formano gli schizzi intorno al punto di impatto del tuffatore. Tra tutti i solidi geometrici, la sfera è quella forma a cui corrisponde a parità di volume la superficie minore. Immaginiamo un cubo di acqua di lato pari ad un metro. Il volume di acqua contenuto in questo cubo è pari a V = 1.0 m × 1.0 m × 1.0 m = 1.0 m3 mentre la superficie esterna Sc del cubo è costituita dalle sei facce del cubo, ognuna delle quali ha una superficie di 1.0 m2. Quindi Sc = 6 × 1.0 m2 = 6.0 m2. La superficie di una sfera si calcola con la formula 4 × 3.14 × raggio al quadrato, mentre il volume con la formula 4/3 × 3.14 × raggio al cubo. Dalle formule si calcola che il raggio di una sfera di 1.0 m3 di volume è pari a 0.62 m. Moltiplicando per 3 il volume della sfera e dividendolo per il raggio si ottiene la superficie Ss = 4.8 m2. Questo valore, ovviamente minore di 6.0, è il più piccolo che si possa ottenere.
A questo punto la domanda che sorge è la seguente: perché i volumi di acqua tendono a minimizzare la superficie esposta?
Immaginiamo di uscire dall’acqua dopo un tuffo e accorgerci che improvvisamente è arrivato l’inverno. Istintivamente ci sdraieremmo sul telo lasciato sulla spiaggia ed assumeremmo una forma a gomitolo, quindi più sferica possibile, allo scopo di minimizzare la superficie della nostra pelle esposta al freddo. Con questa operazione minimizziamo l’energia sottratta al nostro corpo per effetto del trasferimento di calore da esso all’ambiente. In un volume di acqua ogni molecola tende a circondarsi di altre molecole per effetto di una attrazione di origine elettrostatica. Una molecola all’interno del volume di liquido può circondarsi del numero più alto di altre molecole, mentre una sulla superficie è costretta a rinunciare all’attrazione di alcune molecole. Questa condizione ha un costo energetico, in quanto portare una molecola dal volume alla superficie comporterebbe, al netto di tutte le operazioni, la rottura di alcuni legami tra le molecole. Pertanto la superficie per tutti i materiali è un luogo con una certa tensione che il materiale preferirebbe evitare. Per i liquidi, i quali possono fluire, è quindi naturale assumere una forma sferica per rendere questa tensione il più bassa possibile.

Tutt’altro destino seguono volumi di liquidi in condizioni di non-equilibrio, cioè se sottoposti a forti spinte dall’esterno, come quella applicata dal corpo lanciato in caduta libera di Enrico. Con la complicità di alcuni effetti ottici (il riquadro rettangolare in realtà è il risultato di una proiezione nel piano della foto di un soggetto tridimensionale) il flusso di acqua di mare causato dall’immersione lanciata di Enrico ha creato dei contorni apparentemente rettilinei. Così come il flusso dell’acqua che sgorga dal rubinetto crea una lingua di liquido rettangolare che risale il pendio della parete interna del lavandino.

flusso laminare

Ecco, con il giusto flusso di pensieri si riesce sempre a far quadrare le cose…

Lascia un Commento

Chimica

chimica

“Perdere peso ingassando

equilibrio dei carbonati
N

el Traité élémentaire de chimie (1789) Antoine-Laurent de Lavoisier (Parigi, 1743 - 1794) nel pieno della Rivoluzione Francese presenta e discute i primi veri esperimenti chimici quantitativi, separando quindi questa scienza dal mondo dell’alchimia. Negli esperimenti di combinazione e dissociazione di composti, Lavoisier ragiona sempre in termini di molecole che si avvicinano o si allontanano. Di fatto quindi non si crea né si distrugge nessuna molecola che partecipa alla reazione chimica. Questi risultati sono riassunti nella legge ponderale di conservazione della massa.

Proviamo a riprodurre un semplice esperimento chimico a partire da reagenti reperibili in casa, con il quale possiamo assistere ad un cambiamento della composizione del sistema e simultaneamente verificare la coincidenza della massa totale delle sostanze presenti all’inizio e alla fine della trasformazione chimica.
I reagenti e i materiali necessari sono i seguenti:

- Bicarbonato di sodio, 15 grammi

- Aceto al 6% di acidità (qualsiasi colorazione), 200 grammi

- Una bottiglia di plastica vuota da 1.5 litri

- Un palloncino gonfiabile

- Una bilancia da cucina con la precisione del grammo

Pesate uno alla volta con la bilancia da cucina il bicarbonato di sodio (depositato su un foglietto di carta da forno), l’aceto (versato in un bicchiere) e la bottiglia col palloncino. Successivamente sul piatto della bilancia appoggiate la bottiglia di plastica e il palloncino. Depositate sul fondo della bottiglia i 15 grammi di bicarbonato di sodio e poi versate i 200 grammi di aceto. Al termine di queste operazioni sul display della bilancia dovreste leggere un peso pari o di poco superiore a 215 grammi e noterete una intensa effervescenza scatenarsi all’interno della bottiglia. Quando l’effervescenza cesserà osserverete che il peso indicato dalla bilancia sarà sceso di otto grammi.

Dove sono finiti questi otto grammi di materia?

Ripetete ora l’esperimento chiudendo il tappo della bottiglia con il palloncino gonfiabile appena dopo aver versato l’aceto sul bicarbonato al suo interno. In questo caso aspettando un tempo anche molto lungo dopo la cessazione dell’effervescenza noterete che il peso indicato dalla bilancia rimane lo stesso indicato all’inizio.

Come potete spiegare quanto osservato?

Con l’applicazione del palloncino abbiamo evidentemente impedito ad una componente volatile che si sprigiona dalla reazione di abbandonare il volume della bottiglia miscelandosi con l’aria della camera.
L’acido acetico è la molecola principale responsabile dell’aroma e sapore dell’aceto. Si compone di quattro atomi di idrogeno (H, bianco), due di carbonio (C, grigio scuro), e uno di ossigeno (O, rosso), legati a formare una sequenza che potremmo abbreviare in CH3COOH. Il bicarbonato di sodio è un sale formato da ioni sodio (Na+, viola) e ioni bicarbonato, i quali sono costituiti da un atomo di carbonio, tre di ossigeno e uno di idrogeno legati a formare HCO3-.
In soluzione acquosa l’atomo di idrogeno legato all’ossigeno dell’acido acetico tende ad essere ceduto come ione H+ ad una molecola di acqua (H2O) formando i due composti CH3COO- e H3O+. Questa specie, a sua volta, tende a reagire con lo ione bicarbonato in soluzione a formare acido carbonico, H2CO3. Infine, l’acido carbonico tende a decomporsi in acqua e anidride carbonica gassosa (CO2). È proprio la CO2 la responsabile dell’effervescenza che si osserva! Otto grammi di CO2 pura occupano a pressione atmosferica circa quattro litri di volume! Pensate che questa quantità aumenterebbe del 50% la concentrazione di CO2 presente nel volume di una cameretta.

Fate un ultimo esperimento: lasciate asciugare il liquido di reazione in un bicchiere e osservate col passere dei giorni cosa accade alla soluzione…

Lascia un Commento

Materiali

materiali

“La fisica del pilota di F1 - Parte 2: un volo a testa in giù”

Ala posteriore Ferrari
L

a competizione nella F1 è di grande stimolo per lo sviluppo di nuove soluzioni tecnologiche e di nuovi materiali che possano sempre migliorare le prestazioni dei veicoli. Una delle sfide più complesse è rappresentata dalla riduzione della resistenza impressa dall’aria all’avanzamento del veicolo. Per questo scopo, la forma di ogni singola componente delle auto è progettata col fine di favorire un flusso di tipo laminare degli strati di aria sulla superficie dei veicolo. Sotto questa condizione, il fluido si sposta relativamente al veicolo come se fosse costituito da tante lamine sottili capaci di scorrere l’una rispetto all’altra, riducendo la forza di attrito che esercita sul corpo in movimento.

Nel moto turbolento, invece, le particelle del fluido sono coinvolte in un moto caotico e vorticoso che causa forti resistenze all’avanzamento del corpo in movimento.

Per poter comprendere al meglio come si genera una forza aerodinamica, Andrea suggerisce di riferirsi all’equazione di Bernoulli, seguendo un ragionamento simile a quello presentato in Eureka per Gaia Corvaglia! Un tiro ad effetto… Magnus. L’equazione di Bernoulli consente di spiegare l’azione di una forza, chiamata deportanza, che si genera per effetto del moto di un oggetto con forma opportuna attraverso un fluido. Per un veicolo opportunamente progettato essa è una forza diretta verso il basso che, aggiungendosi al carico dovuto alla forza peso, aumenta l’aderenza al terreno degli penumatici (Vedi anche Eureka per Lorenzo Suranna! La fisica del pilota di F1 – Parte 1: sfida alle leggi dell’attrito). La deportanza si genera grazie alla forma di alcune componenti montate sui veicoli, le quali presentano un profilo ad “ala rovesciata”. Questo profilo fa sì che la parte di fluido che scorre al di sopra di questa ala sia più lenta di quella che scorre al di sotto. Riferendoci all’equazione di Bernoulli, a causa di questa differenza di velocità, la pressione sotto l’ala è minore di quella al di sopra di essa, esattamente al contrario di quanto accade in un velivolo, e la forza risultante è quindi rivolta verso il basso, con una intensità proporzionale alla differenza di pressione generata.

La deportanza è fondamentale nelle vetture di F1: quando essa aumenta, si incrementa la forza verticale che grava sullo pneumatico, migliorando molto l’aderenza, la trazione e l’efficacia della frenata del veicolo. I principali responsabili dell’aumento di deportanza in una monoposto sono i profili alari: elementi che possono produrre elevate forze aerodinamiche, da una parte benefiche per la guidabilità del veicolo, dall’altra sconvenienti in quanto aumentano leggermente la resistenza all’avanzamento.

I principali profili alari presenti in una vettura di F1 sono l’ala posteriore e l’ala anteriore che, nella configurazione più ad “alto carico” (cioè che genera massima deportanza sulla monoposto) possono dare origine ad una forza di circa 10'000 N (corrispondente alla forza peso di un oggetto di massa pari a circa una tonnellata!) applicata su ognuna delle ruote della vettura.

Per assicurare ad una monoposto la capacità di resistere a queste forze, dagli inizi degli anni ’80 ha preso piede l’utilizzo della fibra di carbonio. Si tratta di un materiale composito costituito da due fasi distinte: le fibre di carbonio vere e proprie e una matrice, in genere resina. I vantaggi della fibra di carbonio rispetto ai materiali impiegati precedentemente, come ad esempio le leghe di alluminio, sono molteplici. Primo fra tutti il peso: la densità della fibra di carbonio è infatti mediamente di 1700 Kg/m3, contro i 2800 Kg/m3 delle attuali leghe di alluminio utilizzate in campo aereospaziale come l’Ergal. Poi le caratteristiche meccaniche: una lega di alluminio di utilizzo aeronautico ha una resistenza alla trazione di 0.5 GPa, mentre quella della fibra di carbonio varia tra i 3.1-4.5 GPa; inoltre, la fibra di carbonio presenta un modulo di elasticità compreso tra 220-800 GPa, contro i 72 GPa dell’Ergal. Un ulteriore vantaggio è che, mentre i materiali metallici hanno le stesse caratteristiche di rottura, di resistenza a torsione e/o urti indipendentemente dalla direzione di applicazione dell’impulso, nel caso della fibra di carbonio è possibile conferire a direzioni diverse del manufatto diverse proprietà meccaniche, raggiungendo prestazioni eccezionali.

Occorre però tenere conto che l’introduzione di un nuovo materiale tecnologico è sempre il risultato di un bilanciamento tra vantaggi e svantaggi: le problematiche connesse all’utilizzo del carbonio sono rappresentate dai costi elevati e i tempi estremamente lunghi di produzione. L’intero processo di produzione di un’ala della vettura può durare un mese!

Se non siete convinti, Andrea suggerisce di seguire uno dei video di presentazione della divisione Compositi del team ufficiale Mercedes!

“Il filo appeso ad una vita”

arrampicata sportiva
G

regorio è solito in uscite di arrampicata sportiva e come tutti gli appassionati di questa attività si è posto alcune domande:
- La corda che assicura le mie cadute che sollecitazione massima riesce a reggere?
- Il mio corpo che sollecitazione massima riesce a reggere?
- Una volta stabiliti i limiti precedenti, quale distanza massima posso percorrere in caduta libera per essere arrestato senza ripercussioni sul corpo o l’attrezzatura?

Attraverso uno studio del materiale informativo della sua attrezzatura, Gregorio riesce a raccogliere questi dati:
- Per non danneggiare le parti molli del corpo umano, l’accelerazione massima sostenibile è di 15×g.
- La corda utilizzata in condizioni “normali” garantisce una reazione alla trazione con allungamenti dal 3 al 5%.

Nell’ipotesi che la massa dello scalatore sia di 70 kg, la forza totale che si applica a questo corpo per non provocare danni dovrà essere inferiore a m×15×g = 10 kN. Poniamo che questa forza sia la trazione massima che la corda dovrà trasmettere allo scalatore per bloccare la sua caduta. Se il tratto di corda dall’ultimo rinvio è pari ad h, la distanza che lo scalatore percorrerà in caduta liberà sarà pari a 2×h. La lunghezza della corda coinvolta nell’arresto dello scalatore sarà pari a L + h.
La caduta e l’arresto dello scalatore possono essere visti come un processo termodinamico in cui l’energia potenziale accumulata dallo scalatore con l’altezza è convertita in energia interna della corda. L’energia dello scalatore da dissipare nel momento in cui entra in azione la trazione della fune è pari a m×g×2×h = (1400 N)×h. Per dissipare questa energia ammettiamo che la fune con una trazione costante T compia lavoro meccanico in un tratto pari a 0.03×(L + h). Questo lavoro dovrà essere pari a (1400 N)×h.
Impostiamo quindi l’equazione: T×0.03×(L + h) = (1400 N)×h. Se poniamo T = 10 kN, cioè il valore limite da non superare, ricaviamo l’altezza massima da cui possiamo cadere senza ripercussioni fisiche: h-max = (300 N / 1100 N)×L. Ciò significa che il volo più lungo sostenibile (h-max) non dovrà superare circa la metà della lunghezza della corda L.
A questa conclusione arriviamo a seguito di una serie di scelte sicuramente approssimate ma in ogni caso prudenziali. L’approssimazione più drastica è quella di considerare costante la trazione della corda nella fase di arresto della caduta, quando sappiamo che T più realisticamente ha uno sviluppo di tipo impulsivo. Inoltre, coerentemente con il criterio di cautela utilizzato, non si considera l’effetto dissipativo dell’azione dinamica dell’assicuratore.
Il risultato ottenuto è comunque ragionevole. Ad esempio, in riferimento alla figura, se lo scalatore perde aderenza da un punto in cui L = 20 m, il suo volo rimane sicuro per una escursione fino a 10 m. Ciò significa che h = 5 m, il che è piuttosto improbabile in relazione alle caratteristiche medie delle vie attrezzate per l’arrampicata sportiva.
D’altra parte si intuisce che se la stessa tipologia di corda è utilizzata per arrestare un volo pari alla lunghezza della corda (come ad esempio nel bunjee-jumping) il rischio di danno fisico diventa elevato…

...provate un po’ a spiegarlo ai tuffatori dell’isola di Pentecoste!

Guardate qui
Lascia un Commento

Natura

natura

“Non tutti i difetti vengnono per nuocere (sott'acqua)”

pesce palla
N

ella pratica del nuoto libero in piscina, Roberto riconosce che indossare gli occhialini è necessario sia per evitare il bruciore causato dal cloro, sia per migliorare la visibilità sott’acqua. Per anni è stato convinto che fosse un pensiero comune a tutte le persone, finché un suo compagno di corso di studi gli confessò che indossava gli occhiali solo per proteggersi dal cloro, in quanto sott'acqua vedeva meglio senza!


Vedere sfocato quando immersi nell’acqua è comune a molte persone. Per spiegare il perché di questo fenomeno occorre considerare un effetto geometrico che si chiama rifrazione, caratteristico di tutte le onde, anche quelle elettromagnetiche, come la luce. Un raggio luminoso subisce rifrazione quando il suo tragitto viene deviato in corrispondenza dell’attraversamento della superficie di separazione tra due materiali diversi, come l’aria e il vetro di una lente di occhiale. Questa deviazione è alla base della possibilità di “mettere a fuoco”, cioè di concentrare un fascio luminoso in un solo punto, come avviene quando con una lente di ingrandimento produciamo un singolo punto luminoso dalla luce proveniente dal sole. I nostri occhi possiedono delle specie di lenti chiamate cristallini. Quando la luce proveniente da un oggetto illuminato raggiunge attraversando l’aria i cristallini dei nostri occhi, essi la focalizzano in un punto sulla retina. Il risultato è di vedere l’oggetto a fuoco.

La superficie di separazione tra aria e cristallino garantisce sufficienti livelli di deviazione dei raggi luminosi per raggiungere la messa a fuoco sulla retina. Quando siamo sott’acqua, la superficie di separazione tra i raggi luminosi provenienti da un oggetto immerso e il nostri cristallini cambia, diminuendo sensibilmente la sua capacità di deviare i raggi luminosi. Il risultato è quello di focalizzare i raggi su un punto oltre la retina, con il risultato di vedere sfocati gli oggetti immersi.

Come è possibile riuscire a vedere bene sott’acqua?

La soluzione più nota è quella di utilizzare una maschera o degli occhialini. Essi consentono semplicemente di ripristinare la superficie di separazione aria/cristallino, mantenendo una camera di aria attorno ai nostri occhi separata dall’ambiente circostante. I raggi attraversano prima lo schermo trasparente e poi raggiungono i nostri occhi attraverso lo strato di aria intrappolato. In questo modo riusciamo a vedere bene sott’acqua esattamente come riusciamo a vedere bene i pesci contenuti in un acquario.

Lo schermo però crea altre superfici di separazione tra materiali diversi che sono attraversate dagli stessi raggi luminosi. Qual è il loro effetto sulla visione?

Di fatto lo schermo di una maschera come quello di un acquario introducono degli effetti di rifrazione che hanno come risultato quello di creare una immagine degli oggetti immersi apparentemente più prossima a noi, dando la percezione che questi oggetti siano leggermente ingigantiti.

Una soluzione meno nota per riuscire a vedere bene sott’acqua è custodita da alcuni individui che fuori dall’acqua non riescono a vedere bene. Alcuni difetti visivi sono dovuti ad una conformazione dell’occhio che concorre a generare il fuoco dei raggi di fronte alla retina. Le persone affette da questo disturbo correggono il difetto visivo utilizzando lenti che compensano il potere focale degli occhi (lenti negative), in modo tale da portare il fuoco nella corretta posizione in corrispondenza della retina.

Per quanto detto, l’effetto dell’acqua nella visione subacquea è simile a quello di una lente negativa. Quindi, per le persone a cui si accennava, l’acqua a contatto diretto degli occhi ha un effetto simile a quello degli occhiali indossati in aria. Pertanto esse potrebbero raggiungere una messa a fuoco discreta quando sono immersi!

Avete capito di quale “difetto” stiamo parlando?

Si tratta della miopia! Se siete miopi o, come Roberto, avete un amico miope che vanta questa sua abilità, potreste iniziare a considerarlo un pregio…

visione subacquea

“Un ventesimo di lega sotto i mari”

sottomarino S506 Enrico Toti
«D

a bambina leggevo un libro intitolato “La fisica del miao” di Monica Marelli, un libro per bambini che spiega fenomeni fisici associati alla vita di certi animali. Il primo capitolo racconta di come i pesci sfruttino la spinta di Archimede per vivere, lo stesso meccanismo utilizzato dai sottomarini per immergersi in mare. Dato che è un libro per bambini, non è particolarmente approfondito, quindi ho deciso di fare io una ricerca sui sottomarini prendendo come riferimento il sottomarino S506 Enrico Toti, nel quale sono entrata durante la visita al Museo Nazionale della Scienza e della Tecnologia Leonardo da Vinci a Milano».

Con queste parole Valentina ci dà un esempio chiaro e semplice di come la curiosità sia alla base di ogni iniziativa che ci porta a conoscere in modo critico il mondo che ci circonda. Di seguito troviamo i passaggi suggeriti da lei per descrivere in modo quantitativo le operazioni necessarie al funzionamento del sottomarino Toti.


I dati di partenza da conoscere sono:
- Densità del Mar Mediterraneo (mezzo nel quale è immerso il sottomarino): d =1020 kg/m3
- Pressione atmosferica sul livello del mare: 1 atm = 101325 Pascal (Pa)
- Accelerazione di gravità: g = 9.81 m/s2
- Massa m del sottomarino: 536 tonnellate in emersione (camera per immersione riempita da aria atmosferica); 596 tonnellate in immersione (camera riempita con acqua marina)
- Lunghezza = 46.0 m
- Larghezza = 4.75 m
- Volume (calcolato aprossimando il sottomarino ad un cilindro) = 815 m3

Immaginiamo di assistere ai seguenti tre diversi scenari:
1) Il Sottomarino Toti galleggia nel mar Mediterraneo. Una parte Vi del suo volume è immerso. Quale frazione del volume del sottoarino emerge?
Il galleggiamento del sottomarino è garantito dalla spinta di Archimede (FA = d × Vi × g), la quale deve essere uguale ed opporta alla forza peso (FP = m × g):
Pertanto deve risultare m × g = d × Vi × g
Da cui si ottiene:
Vi = m / d = 536000 kg / 1020 kg/m3 = 525 m3
Quindi, circa il 65% del volume del sottomarino è immerso, mentre il 35% è emerso!
Le forze esercitate sul sottomarino in questo stato valgono:
FA = FP = m × g = 5'260'000 N

2) Il sottomarino è completamente immerso e continua a galleggiare: quanta acqua di mare deve entrare in camera per consentire l’immersione dell’intero volume del sottomarino?
Incamerando un certo vollume VA di acqua di mare, il sottomarino aumenta la sua densità media senza variare il suo volume. Nella situazione del punto 1) la densità del sottomarino vale 536000 kg / 815 m3 = 658 kg/m3. La massa di acqua entrante (pari al prodotto d × VA) deve consentire di raggiungere una densità pari a 1020 kg/m3:
(536000 kg + 1020 kg/m3 × VA) / 815 m3 = 1020 kg/m3
Da cui si ricava VA = 290 m3. Notate nulla di particolare? È esattamente il volume emerso del sottomarino quando galleggia! (vedi punto 1)

3) Il sottomarino è completamente immerso e inizia la sua discesa: quale profondità massima può raggiungere e quali pressioni deve sopportare?
La profondità di collasso, zMAX, è la profondità alla quale lo scafo di un sottomarino ha un alto rischio di implodere a causa della pressione idrostatica esercitata dall’acqua. La profondità massima operativa è di 150 m, pari al 50% della profondità di collaudo (300 m). La pressione esercita sul sottomarino a tale profondità si può stimare con il seguente calcolo:
Pcollaudo = d × g × zMAX = 1020 kg/m3 × 9.81 m/s2 × 300 m = 3'000'000 Pa = 29.6 atm
Quindi, il sottomarino può sopportare pressioni fino a quasi trenta volte quella atmosferica.

Jules Verne immaginò di esplorare profondità pari a ventimila leghe nautiche, ovvero superiori a centomila chilometri, a cui corrisponderebbero pressioni idrostatiche di circa dieci milioni di atmosfere! Il nostro Toti, sottomarino tra i più prestanti della storia, riuscì a sfiorare appena un ventesimo di lega di profondità…

“Imparare a cadere sempre in piedi”

caduta gatto
I

nsieme alla famigerata fetta di pane imburrata, ognuno di noi saprebbe elencare un certo numero di oggetti particolarmente propensi a precipitare dalle nostre mani, collidendo col suolo “regolarmente” dalla parte sbagliata. Quello che succede ad un oggetto è completamente controllato dalla sua interazione passiva con l’ambiente; se però a precipitare è un organismo vivente, allora potrebbero intervenire dei controlli attivi. In generale, per voltarci abbiamo bisogno di un appoggio su cui fare leva, e questo è apparentemente assente se stiamo cadendo liberamente. La cosa affascinante è che, grazie ad alcune dissimmetrie che il nostro corpo presenta quando assume opportune posizioni, sarebbe possibile fare leva su noi stessi per voltarci dalla parte meno pericolosa per entrare in contatto con il suolo.


È proprio questo che hanno imparato a fare i gatti sfruttando l’elasticità del loro corpo. Una tra le tante caratteristiche che hanno acceso in Lueda la passione per questi animali.

Consideriamo un gatto che cammina (o dorme!) e chiamiamo “anteriore” la porzione del suo corpo che va dalla testa all’addome e “posteriore” la porzione che segue fino alla coda. Pur essendo flessibile con continuità lungo tutto il suo corpo, è comodo immaginare il corpo del gatto come fosse costituito da due porzioni rigide, ad esempio due cilindri, uniti da uno snodo in corrispondenza del dorso che consenta alle due porzioni di ruotare l’una rispetto all’altra attorno all’asse dorsale.

Quando il gatto perde contatto con l’appoggio su cui sta camminando, ad esempio il ramo di un albero, inizia a cadere con un orientamento nello spazio che non solo è casuale, ma in generale differente per ciascuna parte del corpo, magari perché il gatto ha perso contatto prima con le zampe posteriori e un attimo dopo con quelle anteriori. Per poter atterrare su quattro zampe, dovrà riuscire a ruotare le due porzioni del corpo di angoli differenti e senza aver nessun appoggio su cui far leva, ma sfruttando soltanto l’interazione tra queste due parti.
Per attivare o arrestare una rotazione è necessario far acquisire a ciascuna parte del corpo una accelerazione angolare. Ciascuna porzione del corpo ha bisogno però di valori differenti per tali accelerazioni. La spinta capace di generare accelerazioni angolari prende il nome di momento torcente, ed è questa spinta alla quale il gatto ricorre sfruttando le interazioni tra le due parti del suo corpo.

È interessante notare che uno stesso momento torcente applicato a due oggetti di uguale massa, come ad esempio le due parti, anteriore e posteriore, del gatto, può provocare accelerazioni diverse. Infatti, l’accelerazione dipende dal modo in cui la massa di ciascuna parte del corpo del gatto è distribuita rispetto all’asse di rotazione: se la massa è concentrata in zone lontane dall’asse, l’accelerazione è piccola; al contrario, se la massa è concentrata in prossimità dell’asse, l’accelerazione è più grande. Nel primo caso, il corpo ha un momento di inerzia maggiore rispetto al secondo.

Come riesce quindi un gatto a governare la sua posizione agendo in modo quasi indipendente sulle parti del suo corpo?

Allontanando o avvicinando le zampe al suo corpo! Con le zampe in posizione raccolta minimizza il momento d’inerzia e assicura una grande accelerazione; al contrario, con le zampe estese massimizza il momento di inerzia e assicura una accelerazione minima, al limite nulla.


La “magia” sta nel fatto che, durante quei pochi istanti di caduta libera, il gatto è in grado di calibrare non solo l’entità del momento torcente applicato dai suoi muscoli, ma soprattutto la posizione delle zampe, in modo da ottenere gli angoli di rotazione adeguati per riposizionare le quattro zampe verticalmente e verso il basso.

Qualche volta però può capitare che non abbia a disposizione un tempo sufficiente per completare l’azione, e per questo è probabile che un gatto non cada sempre “in piedi” se l’altezza da cui perde contatto è troppo modesta.

“Quando l'atmosfera si fa pesante”

cono di Mach
D

esirée è appassionata di aerei militari ed è affascinata dai fenomeni fisici che interessano il loro spostamento attraverso l’atmosfera terrestre e il raggiungimento di alte velocità.

In quanto invisibile e impalpabile, l’atmosfera sembrerebbe un miscuglio del tutto innocuo. Se però pensiamo alla massa di aria contenuta in un solo metro cubo di volume, le nostre prospettive si modificano di molto. Infatti, un metro cubo di aria in prossimità del livello del mare contiene una massa di gas che già supera il chilogrammo. Una folata di vento che investe un tratto di riva di cinquanta metri, per una altezza di dieci metri e una profondità di altri cinquanta metri, muove una massa invisibile di aria di oltre trenta tonnellate!

Ma questa non è la sola proprietà che, su larghe scale, ci permette di spiegare il potenziale catastrofico dell’atmosfera. L’aria in essa contenuta è un materiale che si può comprimere facilmente, evento che fa aumentare di molto la sua inerzia. Quale fenomeno naturale e artificiale dà origine a continue compressioni dell’aria? È la propagazione di onde sonore. La vibrazione di masse solide a frequenze udibili (per l’uomo comprese nell’intervallo tra 20 e 20'000 vibrazioni al secondo) si accoppia con l’aria propagando impulsi periodici di compressione e dilatazione che viaggiano a una velocità di circa 1200 km/h, che noi percepiamo attraverso il timpano e le terminazioni nervose come suoni.

La velocità di propagazione del suono in atmosfera non è sempre la stessa ma varia in dipendenza di tre parametri: pressione, temperatura e tasso di umidità. Poiché ogni strato dell’atmosfera è caratterizzato da un valore diverso di questi parametri, si è soliti esprimere la velocità di un mezzo attraverso l’atmosfera con il termine MACH (simbolo M): 1 Mach = velocità pari a quella del suono, 2 Mach = 2 volte la velocità del suono, ecc. Le masse solide vibranti che producono le onde sonore possono essere porzioni di crosta terrestre, come ad esempio in un terremoto, corde di uno strumento musicale, oppure motori a reazione.
Nell’ultimo caso la sorgente di onde sonore, cioè di impulsi compressivi, può essere in movimento. Quando un aereo è in movimento, i fronti compressi si allontanano frontalmente dalla sorgente con una velocità relativa inferiore alla velocità del suono di un valore pari alla velocità di spostamento del velivolo. Contemporaneamente, i fronti compressi tendono ad avvicinarsi tra loro e a sovrapporsi. In questo “regime transonico” la velocità dell’oggetto è compresa tra 0.7 M e 1.0 M. Nel limite in cui l’aereo raggiunge la stessa velocità delle onde sonore, quindi 1 M, i fronti compressi generati continuano a sovrapporsi, moltiplicando l’effetto compressivo e pertanto generando un unico muro di aria ad alta pressione. Qualora il velivolo dovesse superare la velocità del suono, si osserverebbe dapprima il suo passaggio privo di suono, e solo in seguito si avvertirebbe un enorme boato, il così detto bang sonico, dovuto alla “rottura del muro” costituito dai fronti d’onda compattati dalla pressione. Esiste una particolare condizione denominata singolarità di Prandtl-Glauert che consiste nella visualizzazione del muro tramite una nube bianca, costituita da un cono di vapore acqueo che “investe” il velivolo.

Ma è davvero possibile superare la velocità del suono?

La risposta è sì! Il primo approccio con questo fenomeno avvenne durante il secondo conflitto mondiale quando gli aerei, che erano impegnati in manovre di combattimento, una volta raggiunta la soglia della velocità del suono si distruggevano come se “si fossero impattati contro un muro”.
Nel 1942 il Ministero dell’Aviazione del Regno Unito avviò il progetto con la Miles Aircraft che prevedeva la realizzazione di un velivolo capace di raggiungere e superare la velocità del suono. Dopo numerosi esperimenti il muro venne “rotto” per la prima volta nel 1947 dal pilota Charles Yeager a bordo di un aereo dotato di razzi.
Tra le imprese di successo che seguirono ricordiamo quella dell’Apollo 11, che nel 1969 raggiungendo la velocità di 8.3 M portò l’uomo sulla Luna.
Uno dei successi più clamorosi avvenne nel 2012, quando il paracadutista Felix Baumgartner superò il muro del suono con il proprio corpo lanciandosi da un’altezza di circa 40 chilometri e raggiungendo la velocità di 1.24 M.

Grazie a numerosi studi e ricerche nel campo, oggi si producono velivoli capaci di raggiungere e superare la velocità del suono senza il pericolo di subire l’effetto di muri insormontabili o di generare pericolosi bang...

Lascia un Commento

Energia

energia

“Softair - ovvero un'aria tutt'altro che tenera”

softair-paintball
A

Valerio nel tempo libero piace fare partite di softair all’aria aperta con la sua squadra di amici. Chi pratica questa disciplina è ogni volta stupito da quanto sia difficile colpire bersagli posti a distanze anche non troppo elevate. Valerio ha voluto approfondire questa questione cercando una ragione scientifica che potesse spiegare con alcuni semplici calcoli come mai, nonostante la sua precisione, non riuscisse a centrare i bersagli con la frequenza desiderata.

Nel lancio di un oggetto intervengono molti fattori che possono influenzarne l’esito. In assenza di atmosfera, essi sono facilmente prevedibili con le leggi della cinematica, e sono rappresentati dalla velocità iniziale dell’oggetto lanciato (il cosiddetto proiettile), dall’angolo di lancio e dall’accelerazione di gravità. Una delle caratteristiche più affascianti di questa previsione è l’assoluta indipendenza dalla massa e dalla forma dell’oggetto. Se avessimo un ordigno capace di lanciare una palla da tennis quanto un bulldozer imprimendo a questi oggetti la stessa velocità iniziale (intesa sia come intensità sia come direzione e verso), in assenza di atmosfera essi riprodurrebbero la stessa identica parabola in volo e raggiungerebbero dopo uno stesso intervallo di tempo lo stesso punto, posto ad una distanza dalla postazione di lancio pari a quella che chiamiamo gittata.

Tuttavia sul nostro pianeta il lancio di un qualsiasi oggetto avviene entro l’atmosfera. Essa non ha alcuna influenza sulla gravità, cioè sull’attrazione che Terra e oggetti esercitano reciprocamente, ma interviene drasticamente sulla dinamica del volo del proiettile.

Per accorgersi di quanto sia critica la presenza dell’atmosfera sull’esito di un lancio, seguite con attenzione questi semplici calcoli eseguiti per prevedere la traiettoria dei proiettili usati nel softair.

Partiamo con i dati disponibili: un normale fucile da softair per legge non deve trasferire un’energia al proiettile superiore a 1 Joule (1 J). Assumiamo quindi di utilizzare un fucile al massimo delle sue prestazioni, il quale trasferirà un’energia E = 1.0 J al proiettile. Il proiettile più utilizzato nel softair ha forma sferica e una massa m = 0.20 g = 2.0×10-4 kg.

L’energia trasferita al proiettile sarà tutta energia cinetic, la quale è legata alla velocità V del proiettile dalla legge: E = ½ × m × V2. Da questa possiamo ricavare la velocità del proiettile in uscita dalla canna del fucile: V = (2E/m)1/2 = 100 m/s = 360 km/h. La gittata R del proiettile lanciato in assenza di attrito con l’aria si calcola con la formula R = V2×sin(2θ)/g, dove θ è l’angolo di lancio e g è l’accelerazione di gravità (9.8 m/s2). Se sparassimo un proiettile con un angolo θ = 45°, dato che V = 100 m/s, la gittata risulterebbe di circa 1000 metri.

Entriamo ora nel mondo reale. Da alcuni dati sperimentali risulta che la gittata massima che può raggiungere un proiettile da softair nella realtà, cioè sotto l’azione dell’attrito dell’aria seppur in assenza di vento, è di soli 76 m!

In assenza di atmosfera, per raggiungere questa distanza basterebbe che la velocità del proiettile fosse di soli 27 m/s, ovvero che l’energia che il fucile trasferisce al proiettile fosse di soli 0.073 J.

Con questo semplice esempio abbiamo una quantificazione dell’effetto dell’aria sul moto di alcuni corpi: l’attrito che essa genera con il proiettile trasforma infatti il 93% della sua energia cinetica in calore!

Siamo ancora convinti che softair sia il nome giusto per questa disciplina?

“Un Televisore da Elettroshock”

capacitori
D

avide riporta il seguente evento:
Il TV è collegato ad una presa di corrente con interruttore bipolare in posizione OFF e...
...il TV improvvisamente si accende!

Davide, preso dallo sconcerto, stacca la spina che alimenta l’apparecchio e esso si spegne

Ma non è finita: si riaccende per qualche istante, e poi si spegne di nuovo.

Risolvere un problema simile potrebbe sembrare dover richiedere profonde conoscenze elettrotecniche ed elettroniche. In realtà la risoluzione di un problema richiede sempre di riferirsi a dei modelli semplificati. Il risultato pertanto sarà sicuramente una approssimazione. Eventualmente, se sarà necessario essere più precisi, un intervento successivo dovrà prevedere di utilizzare un modello più complesso e verosimile.
Ispirandosi ai principi basilari ed universali che regolano la dinamica di un fenomeno naturale, potremmo scongiurare l’intervento di spiriti o forze sovrannaturali nello svolgersi degli eventi che hanno terrorizzato la famiglia di Davide. Il modello più semplice a cui potremmo riferire il TV è quello di un sistema termodinamico: l’elettrodomestico assorbe energia elettrica dalla rete domestica e la trasforma in energia luminosa, calore, etc. Il TV non potrà produrre o consumare energia: come ogni altro sistema dell’universo esso rispetterà il Principio di Conservazione dell’Energia.
Convinto senza eccepire che anche il suo TV dovrà appartenere a questa categoria di sistemi, Davide intuisce immediatamente che un TV deve possedere l’attitudine di immagazzinare energia.
Ora, la tecnologia offre diverse opportunità. I dispositivi più comuni in grado di accumulare energia elettrica e magnetica, ad esclusione ovviamente delle batterie, sono rappresentati dai capacitori (o condensatori) e dagli induttori. Essi permettono di svolgere anche importanti funzioni nella ricetrasmissione e trasformazione dei segnali ma, in ogni caso, consentono di immagazzinare energia sotto forma di campo elettrico o magnetico.
In realtà, come facciamo notare a Davide, ogni elemento o porzione di un circuito elettrico è assimilabile ad una combinazione di capacitori, resistori (convertitori di energia elettrica in calore) e induttori. Per questo motivo, ad esempio, è necessario che tutti gli interruttori siano costituiti da una leva meccanica, come quella manovrata da Mercoledì Addams!
È chiaro che comprendere i meccanismi precisi secondo i quali il TV riesce ad alimentarsi spontaneamente e capire cosa stimola questo evento richiederebbe un livello di complicazione più avanzato del modello di riferimento. Ed è chiaro che quanto più un sistema è complesso, tanto più probabili saranno eventi imprevedibili. Davide può vantarsi di avere un TV così complesso da aver reso tangibile un evento, potremmo dire, di animazione.…

...Sì, il TV ha preso vita. Ma l’energia si è conservata!!!

Lascia un Commento