Jump to content
Miguel

Artículo: Conducción autónoma en EEUU, UE y más allá

Recommended Posts

El anuncio de Waymo de que tiene la primera licencia para sacar coches sin conductor de seguridad en California (algo que ya hacen muchos en otros Estados, y que además no evita un conductor remoto) nos sirve para repasar un tema muy importante... y que tiene su interés aunque Apple haya descartado su proyecto Titan.

http://portada.macuarium.com/vehiculo-autonomo-novedades-en-eeuu-y-europa/

Cuéntanos qué te parece... y todo lo que nos hemos dejado en el artículo 🙂 .

Un saludo,

Miguel

Share this post


Link to post
Share on other sites

Quizás no esté mi comentario directamente relacionado con el artículo. He escuchado hoy que la transmisión de energía eléctrica sin cables es una realidad que puede llegar hasta ¿300 KW?, no recuerdo bien.

SI esto prospera, ¿sería posible cargar su batería o utilizar un coche eléctrico en la propia carretera mientras se desplaza a su destino?. Las soluciones actuales (híbridos p.e.) serían obsoletas en ese momento.

He tirado de búsquedas sin encontrar nada específico, aunque en Google he encontrado el proyecto de torre transmisora de Tesla...

¿Alguna aportación mejor documentada y menos caótica? ☺️

  • Me gusta 1

Share this post


Link to post
Share on other sites

No puedo aportar nada propio pero en la Wikipedia no parece que sea probable a menos que hayan descubierto algo nuevo.

https://en.m.wikipedia.org/wiki/Wireless_power_transfer

Las del campo cercano, que son seguras para las personas, requerirían una infraestructura “imposible” y las lejanas son direccionales y nada buenas para las personas (microondas y láseres).

Share this post


Link to post
Share on other sites

La conducción autónoma es una realidad técnica, la realidad legal es otra... en la UE se está intentando legislar (tarde como siempre)... el resumen viene a ser... ¿que seguro pagará en caso de que el coche tome decisiones autónomas? ¿si existe un problema de software como se reclama?

 

 

  • Me gusta 1

Share this post


Link to post
Share on other sites
El 2/1/2019 a las 9:14, mainmind dijo:

La conducción autónoma es una realidad técnica, la realidad legal es otra... en la UE se está intentando legislar (tarde como siempre)... el resumen viene a ser... ¿que seguro pagará en caso de que el coche tome decisiones autónomas? ¿si existe un problema de software como se reclama?

 

 

Cada vehículo autónomo debería estar obligado a circular con la cobertura de una póliza de seguro que cubra, sí o sí, los daños tanto personales como materiales que pueda causar. Luego, entre compañías, que se despellejen repitiendo unas contra otras.

Share this post


Link to post
Share on other sites

En el artículo parece que los legisladores siguen pensando en términos del s. XX, y así no vamos a avanzar. Dice  "Por ejemplo, en Alemania un coche autónomo no podrá hacer ningún cambio si cualquiera de las opciones resulta en una muerte probable de alguien; en EEUU, se abre la puerta a «valorar» a las personas que pueden resultar atropelladas en cada caso." Las dos cosas son dos grandes tonterías:

La primera, porque si "no hace ningún cambio", significa que si hay un problema que solucionar, el programa no hará nada por solucionarlo. Con lo que entonces no sirve para nada. 

La segunda, ponerse a valorar la calidad de las personas es abrir una caja de pandora espantosa, donde los abogados de los niños se pelearán con los abogados de los discapacitados y ambos se pelearán con los de las embarazadas. Horroroso y absurdo. 

Lo que están olvidando es que eso de la ética es un concepto humano, y por lo tanto están pretendiendo que el programa conductor tenga un comportamiento humano, y para eso ya tenemos a los humanos. Lo que de verdad evolucionaría tecnológicamente sería que funcione mejor que los humanos, de un modo que un humano no pueda hacerlo. Y eso no pasa por "elegir" ni "valorar". Lejos de ello, por ejemplo, un coche de verdad autónomo tiene que poder congelar en pocos metros el coche, para que no dañe ni a unos ni a otros. Y eso pasa por cambiar drásticamente los sistemas de frenado con tecnologías nuevas. 

Y otro cambio necesario, imposible para un humano, es que el programa tenga decenas de sensores de todas clases para leer constantemente el entorno de 360º con decenas de segundos de antelación, para que sea casi improbable que un niño "aparezca de repente", porque eso es imposible. No se materializa en el aire, sino que estaba detrás de un obstáculo en donde un sensor (de infrarrojos, térmico, de movimiento, de todo) lo ha visto venir.  

Share this post


Link to post
Share on other sites

Una cosa no quita la otra, @faunus. Lo suyo es que el coche cuente con los sensores y la capacidad de respuesta para reaccionar antes y mejor que un conductor humano, pero el legislador tiene que prever cómo debe decidir un coche en funcionamiento autónomo si todas las opciones a su alcance desembocan en víctimas.

Y ahí entra la cuestión ética de si la máquina debe o no valorar las opciones. La conclusión alemana es que no. 

Share this post


Link to post
Share on other sites
Hace 5 horas, faunus dijo:

La segunda, ponerse a valorar la calidad de las personas es ...

No creo que el AI del coche pretenda valorar la calidad de las personas, si así fuera las autoridades deberían intervenir para eliminar esta posibilidad. 

Lo que si debería valorar son las probabilidades de supervivencia de las personas involucradas, la cantidad de posibles muertos en cada opción, etc. y escoger la menos mala. En este caso la posición alemana es errónea.

Share this post


Link to post
Share on other sites
Hace 15 horas, Miguel dijo:

Una cosa no quita la otra, @faunus. Lo suyo es que el coche cuente con los sensores y la capacidad de respuesta para reaccionar antes y mejor que un conductor humano, pero el legislador tiene que prever cómo debe decidir un coche en funcionamiento autónomo si todas las opciones a su alcance desembocan en víctimas.

Y ahí entra la cuestión ética de si la máquina debe o no valorar las opciones. La conclusión alemana es que no. 

Claro, Miguel, pero ese el busilis de la cosa, que la situación de partida "si todas las opciones a su alcance desembocan en víctimas" es la que cuestiono. Si la tecnología es adecuada y suficiente, esa situación se reduce casi a cero. Vamos, que eso se da porque la tecnología aún no es adecuada ni suficiente. 

Me cuesta mucho imaginar una situación realista (que tenga cierto grado de probabilidad, no vale que caiga un meteorito) en la que "todas las opciones" lleven a causar muertos. ¿Un coche va derechito hacia la puerta de un colegio, seguido de cerca por otro con niños dentro (no puede frenar ni seguir)?? Si ambos coches son listos, ambos se paran... ¿Una embarazada sale de un portal a una calle estrecha sin aceras? ¿Dónde ocurre eso, qué embarazada sale sin mirar a una calle estrecha sin aceras y con tráfico rodado? No lo veo, y eso que durante un tiempo trabajé de guionista... 😄

Yo no creo que el programa deba ponerse a valorar probabilidades de supervivencia de cada parte, amigo APB, porque eso es inmensurable: cualquier cálculo que se haga por preciso que sea siempre es una aproximación, una estimación, pero el resultado depende absolutamente de que luego uno se mueva un poco, se gire, otra avance o atrase un paso, otro suelte la bolsa que lleva, o cualquier otra cosa en el último segundo. Todo ese estupendo cálculo avanzado de probabilidades se va al carajo, y no merece la pena el esfuerzo de programación ni ese tiempo precioso que retrasaría la acción. 

La "solución" alemana (que no hace ningún cambio si todas las opciones llevan a muertes) es lindamente un modo de decir "este coche todavía no sabe conducir solo". Eso no es una solución. 

Share this post


Link to post
Share on other sites
Posted (edited)

Situaciones en que haya muertes probables siempre las habrá. En tu ejemplo del colegio durante mucho tiempo el segundo coche no tiene porque ser inteligente y si sustituyes a la embarazada por unos niños jugando al pilla pilla tienes el accidente. Aun con todos los coches inteligentes las cosas terminan fallando (los frenos, los sensores, etc.) y pueden provocar situaciones extremas. Está bien que las leyes/algoritmos piensen en lo improbable.

Justamente calcula probabilidades por todos esos imponderables que comentas, sino calcularía muertos 😉. Si tiene que elegir entre chocar contra un niño de 4 años o un hombre de 40, siendo estas las únicas diferencias entre las dos opciones, espero que elija al hombre. En mi ignorancia pienso que tiene más probabilidades un hombre adulto ( y alto) que un niño con su cabeza a la altura de la carrocería del coche.

 

Edited by APB

Share this post


Link to post
Share on other sites

Yo no estoy tan seguro de que las situaciones con muertes sean inevitables. La diferencia es que la tecnología puede mejorar mucho en tres cosas: 1, la capacidad de anticipación (sensores con más alcance que los ojos y oídos humanos); 2, la velocidad de reacción (los "reflejos", que en una conducción autónoma madura deben ser virtualmente instantáneos); y 3, la capacidad de frenado extremo (pase lo que pase, el coche se para). 

Voy a tu supuesto: tres críos jugando al pilla-pilla que salen a la calzada de repente entre dos coches aparcados. Hasta ahora, lo que solía ocurrir es que el conductor, por muy rápido que sea, no tiene tiempo material de reaccionar y algún chaval se lleva un golpe más o menos fuerte. Con un coche autónomo real, la diferencia es que los sensores detectan a los críos varios segundos antes de que salgan a la calzada, y por tanto ya no es "de repente", por tanto al detectarlos aminora mucho la velocidad y ya no hay muertes. Puede que le embista, pero en vez de muerte es apenas un chichón. Es una enorme diferencia. 

Sigo sin ver supuestos en que el programa tenga que elegir a quién mata. Si la tecnología funciona bien de verdad, no tiene que matar a nadie. No es una cuestión de elegir. 

Share this post


Link to post
Share on other sites
Posted (edited)

Recuerda que solo he sustituido "tu embarazada" por "mis niños". Por lo tanto siguen saliendo "de un portal a una calle estrecha sin aceras" y los sensores no los pueden detectar dentro del portal. A parte no se hasta que punto los sensores podrán detectar a los niños jugando en la acera si hay coches aparcados.

¿Quieres situaciones elegibles? La misma con una calle algo más ancha por la que por el otro lado pasea de espaldas al coche "mi hombre de 40 años". No puede frenar a tiempo pero si girar: ¿elige embestir al imprudente niño o al hombre cuarentón? 

Pienso que en estos supuesto extremos el análisis de las víctimas debería ajustar-se únicamente a sus posibilidades de sobrevivir, como antes decía, pero nunca tener en cuenta de quien es la culpa del accidente (a por el niño) o cuantos años les quedan de vida (un cuarentón menos).

Los frenados extremos también pueden ocasionar muertes en el interior del coche, ¿el coche debe parar-se cada vez que un crío o adulto se quite el cinturón momentáneamente?

Pienso que no es tan importante encontrar un escenario realista, las casualidades ya lo harán posible, sino que el AI tenga los parámetros definidos para actuar  

 

PD: ¿Que hace un coche inteligente yendo por una calle estrecha con portales y personas paseando a una velocidad tan inadecuada? Ignorémoslo (¿podría ser policía persiguiendo a un criminal?) o tendremos que buscar otro ejemplo, todos aceptamos que serán situaciones muy excepcionales. Aunque esas situaciones solo se den cada 50 años el AI debe saber cómo actuar. 

Edited by APB
  • Me gusta 1

Share this post


Link to post
Share on other sites
Posted (edited)

Gracias al “corazón” de Miguel vuelvo a la carga.

Para no entrar en detalles de cómo se ha llegado a la situación, el AI debe elegir entre probablemente matar a un peatón o al propietario que está en el interior del coche.

No he buscado si ya se ha hablado de esta situación pero sinceramente, ¿cuantos de nosotros seríamos “éticos” y compraríamos el AI que no diferenciara entre las muertes externas y las internas, si nos dejan esa posibilidad?

Edited by APB

Share this post


Link to post
Share on other sites
Hace 17 horas, APB dijo:

Para no entrar en detalles de cómo se ha llegado a la situación, el AI debe elegir entre probablemente matar a un peatón o al propietario que está en el interior del coche. 

Quizás lo más sencillo para resolver estos problemas éticos sea aplicar un algoritmo que reproduzca estadísticamente lo que haría la gente ante estas situaciones.

Y como no todos reaccionamos de la misma forma ante este tipo de sucesos, habría que introducir en la ecuación el azar, es decir, que el coche no siempre reaccione del mismo modo ante la misma situación, como nos sucede a las personas, sino que aplique reglas con incertudumbre pero siguiendo los patrones que se han estudiado en el comportamiento humano.

Pero claro, si a tí te ofrecen un coche en el que te aseguran que ante estas situaciones imprevisibles siempre primará por salvar la vida de sus ocupantes frente a la de terceros,... ¿qué harías?

La solución: legislar. No dejar que este tipo de decisiones se puedan usar como argumentos de marketing por las compañías.

De todas formas lo del coche autónomo a mí me sigue dando un enorme mal rollo. Se supone que las IAs estarán perfectamente entrenadas y funcionarán a la perfección en el 100% de las situaciones... pero ¿fiarías tu vida a ello? Y eso sin entrar en la posibilidad de que haya bugs que no se han descubierto, o que la IA se pueda hacer la picha un lío en circunstancias imprevisibles, o incluso que sea hackeable y alguien pueda modificarla o crear un patrón para engañarla y que tu coche te mate limpiamente. Sería una forma muy fácil para ciertas agencias para liquidar a quien les molesta. En lugar de hackear el móvil se hackea el coche.

Share this post


Link to post
Share on other sites
Posted (edited)
Hace 3 horas, Jorge dijo:

De todas formas lo del coche autónomo a mí me sigue dando un enorme mal rollo. Se supone que las IAs estarán perfectamente entrenadas y funcionarán a la perfección en el 100% de las situaciones... pero ¿fiarías tu vida a ello? Y eso sin entrar en la posibilidad de que haya bugs que no se han descubierto, o que la IA se pueda hacer la picha un lío en circunstancias imprevisibles, o incluso que sea hackeable y alguien pueda modificarla o crear un patrón para engañarla y que tu coche te mate limpiamente. Sería una forma muy fácil para ciertas agencias para liquidar a quien les molesta. En lugar de hackear el móvil se hackea el coche.

No es que me crea que la conducción autónoma va a ser milagrosa e infalible, pero comparado con el panorama actual, estoy seguro de que el número de muertos va a bajar considerablemente, frente a los problemas que planteas tú, ahora mismo tenemos: conductores sin experiencia, sin las capacidades necesarias, imprudentes, intoxicados (alcohol o drogas), o el que usa el coche como arma.

Mientras el % de fallecidos se reduzca, el cambio digo yo que será positivo, que después se pueden plantear mejoras de los algoritmos, bienvenidas sean.

Es que a veces me da la impresión de que se le exige a la conducción autónoma que sea perfecta, cuando lo que hay ahora es lamentable.

Edited by fafnir2001

Share this post


Link to post
Share on other sites

La mayoría de los hackeos se solucionarían obligando que las actualizaciones de la AI sean por USB y en sus “momentos tontos” solo tiene que parar a un lado y pedir ayuda al humano de abordo. En las películas se cortan los frenos o se ponen bombas en los coches para asesinar pero, guerras aparte, no sé si en la realidad se hace mucho. 

Al ser nueva y por estrenar claro que queremos que esta tecnología sea perfecta, luego nos conformaremos con lo que sea si nos ofrece alguna mejora. 

Share this post


Link to post
Share on other sites
Hace una hora, fafnir2001 dijo:

Mientras el % de fallecidos se reduzca, el cambio digo yo que será positivo, que después se pueden plantear mejoras de los algoritmos, bienvenidas sean.

Sin duda.

Pero de todas formas una cosa no va a sustituir a la otra, sino que tengo la impresión de que van a convivir juntas por un tiempo indefinido de tiempo.

Es decir, cuando se perfeccione y generalice la opción de la conducción autónoma no creo que se prohíba explícitamente conducir "manualmente"... entre otras cosas porque a mucha gente (entre los que me incluyo) nos gusta conducir.

Tiene pinta de que va a ser una opción más disponible en el coche, como el aparcamiento automático que, aunque puede realizarlo el coche por sí mismo, no excluye que haya gente que prefiera aparcar "a mano".

 

Share this post


Link to post
Share on other sites
Posted (edited)
Hace 51 minutos, APB dijo:

Al ser nueva y por estrenar claro que queremos que esta tecnología sea perfecta, luego nos conformaremos con lo que sea si nos ofrece alguna mejora. 

La diferencia es que sobre esta tecnología estamos depositando literalmente nuestra vida. Por eso es tan importante que sea perfecta.

No es como que falle el e-mail o un servicio de google. Si falla el sistema de conducción autónoma podemos irnos a criar malvas.

Un offtopic: hasta hace nada el volante y la columna de dirección debían ir conectados físicamente a las ruedas para evitar que un fallo en el servo o en el control electrónico nos dejase sin dirección. Son medidas de seguridad mecánicas para cuando la electrónica falla.

Sobre que cuando se líe el sistema se ponga a un lado y nos pida ayuda, eso depende del lío en cuestión. No sé, se me ocurre que el sistema no detecte correctamente un vehículo, un peatón, un saliente, un objeto que se desprende del vehículo precedente, o cualquier tipo de imprevisto repentino en la calzada (obras, desprendimientos, granizada, riada que cruza la vía, invasión de la vía por otro turismo, bici,...) y no tenga tiempo de reducir tranquilamente para pedir ayuda.

Entre otras cosas por eso ahora mismo la conducción autónoma requiere que el conductor esté alerta y sujetando el volante por si la Ai la pifia. Hay veces que no depende tanto del tiempo de reacción como de predecir lo que va a suceder antes de que suceda, de tener intuición, de ver algo raro que la máquina no entiende,... la máquina no puede estar entrenada para cualquier eventualidad... y menos en una situación en la que hay que convivir con conductores reales, con sus defectos e imprudencias. Gente que ves que se va a saltar un STOP simplemente por la forma de conducir, o que ves que no te ha visto porque le ves la cara de despistado,... esos pequeños detalles que marcan la diferencia, vamos. La Ai detecta objetos, pero no tengo claro que hile tan fino como para entender que si se cruza una pelota, detrás seguramente aparezca un niño corriendo tras ella. Ese tipo de cosas.

Edited by Jorge

Share this post


Link to post
Share on other sites
Hace 25 minutos, Jorge dijo:

Entre otras cosas por eso ahora mismo la conducción autónoma requiere que el conductor esté alerta y sujetando el volante por si la Ai la pifia.

Creo que es más un requisito puramente legal. 

Citar

La Ai detecta objetos, pero no tengo claro que hile tan fino como para entender que si se cruza una pelota, detrás seguramente aparezca un niño corriendo tras ella. Ese tipo de cosas.

¿Ha habido muchos atropellos en Noruega, país líder en el uso de coches eléctricos?

El Metro de Bilbao tiene conducción automática desde hace muchos años. Sin embargo aún es imprescindible que haya conductor en la cabina y que siga accionando el sistema de hombre muerto.

https://es.wikipedia.org/wiki/Automatic_Train_Operation

 

Share this post


Link to post
Share on other sites
Hace 5 horas, borjam dijo:

El Metro de Bilbao tiene conducción automática desde hace muchos años. Sin embargo aún es imprescindible que haya conductor en la cabina ...

Eso es porque os faltan siglas, solo tenéis ATO. Por lo visto en Barcelona tenemos algunas líneas con el pack completo (ATP, ATO y ATS) y por eso no necesitan conductor. 😉

Citar

funcionalidades de protección (Automatic Train Protection, ATP), y opcionalmente funcionalidades de control (Automatic Train Operation, ATO) y supervisión (Automatic Train Supervision, ATS),[1] tal y como se especifica en el estándar IEEE 1474. Al conjunto de ATP, ATO y ATS se le llama comúnmente ATC (Automatic Train Control).

De https://es.m.wikipedia.org/wiki/Sistema_CBTC

 

Share this post


Link to post
Share on other sites
Posted (edited)
Hace 6 horas, Jorge dijo:

La diferencia es que sobre esta tecnología estamos depositando literalmente nuestra vida. Por eso es tan importante que sea perfecta.

Los coches, los trenes, los aviones, etc. no son precisamente perfectos y no veo que nadie deje de usarlos.

Pienso que si sus sistemas no detectan correctamente es un fallo y no un lío. Es de esperar que los sistemas finales detecten correctamente todos los obstáculos y sus movimientos y el AI sepa reaccionar, aunque sea parando a un lado. Para mi líos serian los problemas con carreteras no señalizadas, desvíos provisionales, comportamientos extraños de los vehículos, etc.

Los imprevistos que has citado sí deberían tener su algoritmo para que la AI sepa como reaccionar ya que no son tan raros y aunque fueran vacas volando (en la TV hace poco ponían Tornado) o cualquiera otra situación no específicamente prevista ha de estar preparada para encontrar el comportamiento más seguro, con algún algoritmo genérico.

El prever situaciones de peligro, pelota seguida de niño, dependerá de su base de datos e irá mejorando con el tiempo, como nosotros.

Edited by APB

Share this post


Link to post
Share on other sites
Hace 10 horas, APB dijo:

Eso es porque os faltan siglas, solo tenéis ATO. Por lo visto en Barcelona tenemos algunas líneas con el pack completo (ATP, ATO y ATS) y por eso no necesitan conductor. 😉

Que yo sepa ATO y ATP.

Aunque no tengo relación con el Metro (aparte de ser un simple pasajero, claro) desde el siglo pasado. 

Share this post


Link to post
Share on other sites
Hace 11 horas, APB dijo:

Los coches, los trenes, los aviones, etc. no son precisamente perfectos y no veo que nadie deje de usarlos.

Sin duda. Más que nada es por abrir debate. Que sino esto está un poquillo aburrido 😀

De todas formas, no es exactamente lo mismo un coche que un medio de transporte público tipo un avión o un tren. Por ejemplo, cuando nos montamos en un autobús somos meros pasajeros que depositamos nuestra confianza en una tercera persona desconocida (el chofer) contratada para conducir. Sin embargo en un coche o bien conducimos nosotros mismos, o bien lo hace un conocido o familar, que es sobre quien que depositamos la confianza (a veces la desconfianza 🤣). En ese sentido no somos estrictamente pasajeros que pagamos por el transporte.

No sé si me explico. No es lo mismo hostiarte en la carretera conduciendo tú mismo por un error tuyo, que hostiarte debido a una neglicencia de un piloto o chofer profesional. Aunque las consecuencias sean las mismas. Y legalmente puede tener su intríngulis...

Cuando hay un accidente de transporte público lo primero que se mira es si el conductor o piloto cometió algún tipo de negligencia, lo que suele derivar en demandas legales por parte de los pasajeros. Sin embargo un conductor de coche difícilmente se demandará a sí mismo. La duda que me surje es: si tenemos un accidente achacable a una negligencia de la IA... y dado que técnicamente nosotros somos pasajeros de nuestro propio coche... ¿no habrá demandas contra el fabricante del coche del mismo modo que las hay contra las compañías de transporte?

En EEUU, donde son propensos a demandar a todo lo que se mueve, seguro que ya tendrán estudiado todo esto. Porque si la IA no puede ser responsable en sí misma (no se puede demandar a una IA por una negligencia) ¿Quien sería el responsable?... pues la empresa fabricante ¿no?

Ese problemilla legal en principio no existe con los coches que se conducen por personas... ya que es la persona que conduce la que asume la responsabilidad legal de sus negligencias.

Joder, y otra cosa que se me acaba de ocurrir según escribo... Si asumimos que las IA no van a ser perfectas (y por tanto van a cometer errores)... ¿a quien se multa si la IA comete algún tipo de infracción? ¿Al conductor o al pasajero? ¿Sería el pasajero responsable de un fallo de la IA? ¿Te multarían a tí si tu coche se salta un STOP? ¿Y si provoca un accidente con muertos, quien es el responsable, el fabricante de la IA o el pasajero, que puede coincidir o no con el dueño del coche?

Yo ahí veo mucho lío...😜

Share this post


Link to post
Share on other sites
Posted (edited)

Me refería a su imperfección tecnológica, no a la del conductor. Son máquinas con errores, pocos pero pueden ser mortales, pero los asumimos como aceptables. A las AI conductoras deberemos aceptarlas del mismo modo.

Se supone que las AI no van a cometer negligencias ni van a saltarse un Stop por mucho el propietario llegue tarde. Con los fallos supongo que dependerá de la gravedad del mismo, si es conocido y no reparado o si el propietario tiene esa AI razonablemente actualizada. Como he comentado antes pienso que las AI deberían actualizarse solo físicamente, USB o lo que sea pero nunca inalámbricamente, para evitar muchos hackeos, que la 🕵️‍ mueva su culo hasta el coche en lugar de hacerlo desde la oficina.

Como pasa siempre los tribunales, los políticos y el dinero ya se encargarán de ajustar las leyes a su agrado.

Edited by APB

Share this post


Link to post
Share on other sites
Posted (edited)
Hace 4 horas, borjam dijo:

Que yo sepa ATO y ATP.

Diles que se compren la S y así os regalan la C y jubiláis a los conductores. 😉😁

Edited by APB
  • Haha 1

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.