19 fevereiro 2018


Se você está aqui, provavelmente é para saber onde encontrar uma lista de canais que estão funcionando. Como comunidade abandonou as atualizações da lista para Serviio onde é possível ver Tv online pelo vídeo game, vamos listar abaixo algumas listas para iptv. 

O único trabalho que você terá é de abrir a lista com notepad e copiar o endereço do canal e colar no Serviio - como ilustra a imagem acima. Mais fácil que outro tutorial que tínhamos e envolvia um monte de passos e ferramentas.

Para saber se o canal está funcionando após colar o endereço dele em "source url", clique em "check stream url". Depois de alguns segundos, aparecerá uma mensagem. Se a mensagem for "The Stream URL is valid and currently available" significa que está funcionando, caso seja "The stream URL is not valid or is not currently available" é porque não está funcionando, está offline ou tem algum erro no endereço fornecido.

Listas:
https://bit.ly/pjt-lista
http://bit.ly/IMDSFULL
http://bit.ly/PlaytvGeh

Copie algum link acima, cole no seu navegador... vai baixar um arquivo. Abra com o notepad para acessar os endereço dos canais. Para baixar o notepad++  clique aqui.

16 fevereiro 2018

Um bug no iOS 11.2.5 permite travar um iPhone apenas enviando uma mensagem. O bug consiste em receber no app iMessagens um caractere específico no idioma Telugo, da Índia, travando o aparelho e levando o usuário a tela de bloqueio.

A falha também afeta outros aplicativos incluindo Mail, Facebook, Instagram, Twitter e Slack, além de fazer travar alguns programas como Google Chrome no macOS.

Felizmente o iOS 11.3 não é afetado por este bug. Portanto se deseja travar o iPhone do seu amiguinho, envie os seguinte caractere para ele: జ్ ఞా (apagando o espaço entre eles formam o caractere que trava o iPhone - não colocarei ele aqui para evitar que trave o aparelhos dos nossos leitores).

Para resolver o problema, solicite ao seu amigo que apague a mensagem enviada.

Não é a primeira vez que caracteres travam iPhones, isso já ocorreu com caracteres árabes como você pode ler aqui e aqui. Portanto compartilhe com seus amigos que usem o sistema da Apple :)

Fontes: tecnoblog.net
@tomwarren

13 fevereiro 2018


SocialFish é um script que permite realizar ataques phishing com o ngrok já configurado, ou seja, escolha sua página falsa e mande o link do ngrok para pegar a senha do Facebook do seu amigo. Se não sabe como instalar/usar o Kali Linux, clique aqui e saiba mais!

Páginas falsas disponíveis:
-Facebook
-Google
-LikedIn
-Github
-Stackoverflow
-Wordpress
-Twitter
Requisitos para rodar o script:
-Python 2.7
-Pacote wget 3.2
-PHP
-sudo (privilégios de root)


Fizemos um vídeo abaixo demonstrando a ferramenta:
Comandos usados:

git clone https://github.com/UndeadSec/SocialFish.git
cd SocialFish/
sudo pip install -r requirements.txt
python SocialFish.py

12 fevereiro 2018


Saiu a versão 2018.1 do Kali Linux! O sistema teve ser kernel atualizado para a versão 4.14.12 , portanto ainda possui vulnerabilidade ao Meltdown e Spectre (saiba mais aqui) que serão corrigidas no kernel 4.15.

O sistema agora possui suporte a 'AMD Secure Memory Encryption', essa funcionalidade estará nos mais recentes processadores da AMD o que permite encriptação e decriptação automática da DRAM. Foi aumentado o limite de memória, ou seja, 4 PB de memória física e 128 PB de memória virtual agora são suportado pelo sistema.

Diversos pacotes foram atualizado, incluindo os do pixiewps e reaver. Se você já possui o Kali instalado, você pode atualizar seus sistema digitando o seguinte comando no terminal:

apt update && apt full-upgrade

*Se você receber um erro relacionado a GPG sobre a chave do repositório ter sido expirada (ED444FF07D8D0BF6), digite o seguinte comando no terminal:

wget -q -O - https://archive.kali.org/archive-key.asc | apt-key add

Caso prefira baixar a ISO do sistema clique aqui ou o arquivo para instalação em máquinas virtuais clique aqui.

Fonte: www.kali.org

09 fevereiro 2018


O método a seguir é destinado a usuários de Android e que possuem ROOT, se você não sabe como fazer root em seu aparelho... pesquise no tio Google "como fazer root [modelo do seu aparelho]". 

Com seu Android com root, baixe um explorador de arquivos - usamos o Root Browser - e navegue entre as pastas: /data/data/com.google.android.apps.authenticator2/databases/

Dentro da pasta databases vai ter um arquivo chamado "databases". Portanto copie ele para a memória interna ou cartão de memória. 

Por questão de segurança, estaremos utilizando o Kali Linux para a extração dos códigos do arquivo "databases", que serão seu backup - se não sabe como rodar um sistema Linux em máquina virtual, caso use Windows, assista um vídeo rápido clicando aqui . *O ideal seria rodar direto de um pendrive, no modo live para evitar vazamento da database.

Feito isto, certifique que seu Linux possui o sqlite3 instalado e atualizado digitando no terminal o seguinte comando: sudo apt-get install sqlite3

Depois plugue seu aparelho ao PC - no caso da máquina virtual VBox clique em "Dispositivos" > "USB" > Selecione seu smartphone, então ele aparecerá dentro do sistema que está rodando na máquina virtual - e copie então o arquivo "databases", que você tinha copiado para o sdcard ou memória interna, para a área de trabalho. Em seguida acesse a área de trabalho pelo terminal digitando: cd Desktop (caso seu sistema esteja em inglês).

Em seguida inicie o sqlite3 com o arquivo digitando: sqlite3 ./databases

Depois, para saber como está o formato dos dados digite: .fullschema 
Como pode observar na imagem que abre este tutorial, os dados serão apresentados no formato: chave primária | email ou texto | chave secreta | ...


Agora para extrair os códigos basta digitar: select * from accounts;
*Não esqueça do ponto e vírgula.

Em seguida aparecerá todos serviços que você usa seu Authenticator, exemplo: 
1 | Google: seuemaildo@gmail.com | 15454787SuA4787cHAvE548 | ...
2 | Facebook: seuemailfacebook@gmail.com | 738217329183309213 | ...
...

Para sair apenas aperte ctrl + z.

O trecho em vermelho do código de exemplo acima é onde estará sua chave secreta dos serviços que utiliza, anote elas em um lugar seguro. 

Para usar elas novamente, supondo que seu aparelho estragou e teve que comprar outro, basta instalar o Google Authenticator no novo aparelho e clicar no ícone de + . Em seguida clique em "Digitar uma chave fornecida" e insira a chave do serviço que deseja ter códigos novamente. Pronto, tudo perfeito como antes.

*É recomendo apagar as cópias virtuais do arquivo databases que você fez, para evitar que hackers tenham acesso as suas contas, também evite salvar este arquivo em algum serviço em nuvem... pois se o serviço for hackeado... já sabe né.

Interessante que dá para usar o método de extração acima também com um backdoor em apk no Android caso o aparelho da vítima esteja com root, o processo seria o mesmo depois de acessar a pasta databases e fazer download do arquivo databases - clique aqui e saiba mais sobre como criar um apk malicioso.

Stalker vem do inglês "perseguidor", hoje apresentarei uma ferramenta online para facilitar na coleta de informações sobre qualquer perfil no Facebook ou seja como stalkear alguém na rede social.

Bom, a ferramenta é o site stalkscan.com . Com interface bastante limpa e intuitiva, basta colar o endereço do perfil que você deseja e clicar na lupa ou dar enter.



Como o próprio site informa esta ferramenta não viola as configurações de privacidade do Facebook, ou seja, se você não é amigo da pessoa na rede social, vai aparecer apenas conteúdo que está em modo público. 

A princípio parece que o site não será útil, já que tudo já está disponível no Facebook, mas ele possui uma interface muito organizada o que permite você filtrar o que deseja coletar. Por exemplo é possível filtrar por tempo, sexo, idade e muito mais. Na imagem abaixo ilustra uma busca no perfil do criador do Facebook para que apareça somente fotos em que alguma mulher esteja marcada.


Vale lembrar que é necessário que esteja logado no Facebook, pois todas pesquisas que realizar aparecerá dentro do Facebook usando o campo de pesquisa - não se preocupe, ninguém saberá que você está 'stalkeando'.

Gostou? Compartilhe com seus amigos ou aquela tia e avise aquele amigo que coloca tudo público para rever suas configurações de privacidade, afinal como demonstrado em outro artigo, ele pode se tornar uma estrela sem saber - clique aqui e saiba mais.

07 fevereiro 2018


DesignCap é uma ferramenta online, um site que permite você criar poster rapidamente. Com centenas de templates, basta escolher algum do seu agrado e depois modificar os textos por exemplo.

A ferramenta lembra o DesignEvo, para criar logotipos, que já abordamos em outro artigo.

É possível adicionar o idioma português durante o uso da ferramenta, para isto clique no ícone de engrenagem no canto inferior esquerdo e depois clique sobre "Idioma", então selecione "português". 

No canto esquerdo do site, tem todas as opções de personalização do seu poster.

Depois de criado seu poster, é hora de salvar! Para isto tem disponível para download a imagem em 4 diferentes tamanhos.

poster-pequeno

Pequeno: 1587 x 2245 px
Médio: 2479 x 3507 px
Grande: 3306 x 4677 px
XL: 4959 x 7015 px

Para visualizar no computador, o tamanho das imagens não fará muita diferença. Agora para impressão, cada pixel faz diferença.

Gostou da ferramenta? Clique aqui e comece a fazer seus poster gratuitamente.

04 fevereiro 2018

Atenção: o tutorial abaixo tem o intuito apenas educacional, não nos responsabilizamos pelos seus atos ou o de nossos leitores. Não será exibido conteúdo para maiores de idades (+18) durante a leitura, mas os link que direcionam para outras páginas podem conter conteúdo NSFW.

Atualizado em 12/02/18

Uma nova cultura vem surgindo na internet, a cultura de manipular vídeos colocando rosto de outra pessoa no vídeo (face swap) - infelizmente isto vem sendo utilizado para colocar rosto de famosos/pessoas públicas, em corpos de atores pornôs. 

Fazer este tipo de conteúdo em fotos, é fácil para quem está acostumado com photoshop. Mas este tipo de manipulação em vídeo só se tornou relativamente mais simples graças ao aprendizado de máquinas (machine learning) que permitem que usuários criem filmagens falsas realistas em questão de horas e com algumas imagens da vítima. Como ilustra o vídeo abaixo, Donald Trump foi colocado sobre o rosto do personagem Biff em uma cena do filme De volta para o Futuro.


O processo para fazer este tipo de vídeo ainda continua um pouco complexo para usuários leigos, mas uma comunidade chamada DeepFakes no Reddit (a comunidade foi banida), está tornando isso muito mais simples lançando versões melhoradas de um programa para Windows, o FakeApp.

Mas antes de começar a utilizar o programa é necessário que entenda que o processo de criação do vídeo falso ainda demanda horas de processamento, é necessário que você possua pelo menos 8GB de memória RAM e uma placa de vídeo nvidia com 4GB de RAM pelo menos. Embora você ainda possa utilizar seu processador... o processo demorará muito mais. *Caso utilize placa de vídeo da AMD, existe uma gambiarra utilizando o sistema operacional Ubuntu (linux) - você pode conferir um tutorial sobre clicando aqui (artigo em inglês - portanto recomendo compreender como funciona o processo lendo nosso artigo abaixo primeiro).



A versão do FakeApp recomendada é a 1.1, embora exista a versão 2.0... ela está instável no momento em que escrevo este tutorial. O link para download você encontra clicando aqui.

Depois de ter feito o download do FakeApp, copie a pasta para seu disco local C:\FakeApp


Ainda em seu disco local, crie uma pasta chamada "fakes" (sem aspas) e dentro dela, crie 2 pastas... uma chamada "data_A" e outra "data_B" (sem aspas).




Em data_B você colocará suas celebridades, ou seja, o rosto de quem você quer em um vídeo e em data_A você colocará seus vídeos ou pornos, ou seja, o vídeo em que o rosto desejado irá aparecer. 

Antes de continuar, certifique que possui instalado o Java, acesse o site oficial java.com e confira se possui instalado o Java, caso contrário faça download e instale-o.



Bom, dentro da pasta FakeApp você encontrará um arquivo chamado fakeapp.bat, executando ele abrirá uma janela preta... o prompt de comando do Windows, que executará um código para abrir o programa FakeApp - demora um pouco até abrir.




*No caso da imagem apareceu A:\DF\FakeApp no prompt, pois tive que colar a pasta FakeApp em outro disco em vez do disco local 'C', devido a questões de falta de espaço para continuar com o tutorial.

Na aba "Extract" é onde será possível extrair os rostos dos vídeos e imagens que estão na pasta data_A e data_B. Quando terminar de extrair todos os rostos, você irá para a aba "Train" que é onde a mágica acontece, ou seja, é onde uma inteligência artificial é treinada para sobrepor os rostos. Por fim, a ultima aba... "Convert" permite você colocar os rostos trocados de volta nas imagens do vídeo.

Bom, caso for utilizar uma placa de vídeo nvidia, é necessário que tenha instalado o nvidia CUDA 8.0 (sim, a versão 8.0), o link para download pode ser encontrado clicando aqui, certifique de baixar o instalador "exe (local)" em vez do "exe (network)" para evitar problemas.

Você também precisará de um programa que extraia as imagens de vídeos que for usar como base, por exemplo para colocar na pasta data_B. Portanto, recomenda-se utilizar o software ffmpeg - link para download clicando aqui. Infelizmente o processo de instalar ele é diferente, mas felizmente um tutorial do wikihow em português de como instalar o ffmpeg pode ser encontrado clicando aqui.

Feito isto, escolha um vídeo em boa qualidade, e coloque dentro da pasta do ffmpeg que criou em seu disco local conforme seguiu o tutorial do wikihow. *É recomendado que tenha apenas 1 rosto no vídeo para facilitar... caso insista em ter mais de 1 rosto no vídeo, terá que fazer passos extras que avisarei mais a frente.

Abra o prompt de comando (cmd) do Windows e acesse a pasta do ffmpeg como ilustra a imagem abaixo:
*note que ali em "video%04.png" o correto seria "video%04d.png" .

Comandos:

cd C:\ffmpeg

ffmpeg -i [nome do vídeo].[tipo do vídeo] -vf fps=0.5 "[nome da imagem]%04d.png"

Em seguida dê enter e aguarde as imagens serem extraídas do vídeo. Depois, copie todas as imagens para a pasta "data_B" criada dentro de "fakes".

De volta para a janela do FakeApp, vamos preencher a aba "Extract". Em "Data:" você coloca o caminho para onde está as imagens do vídeo que extraiu, no caso data_B. 

Já em "File Type" escreva o tipo do arquivo das imagens, é recomendo utilizar png ou jpeg. Em "Processor" deixe "GPU" caso utilize placa de vídeo da nvidia e tenha instalado o CUDA 8.0 ou escreva "CPU" (sem aspas) para usar seu processador. *Caso seu vídeo utilizado possuir mais de um rosto, escreva "true" (sem aspas) em "Mult Faces" - dependendo do vídeo, mesmo que tenha mais de uma pessoa e você for utilizar apenas 1 rosto, deixe false.

Feito isto, aperte Start e aguarde o processo terminar.


Dentro da pasta data_B, surgirá uma pasta chamada aligned que conterá imagens dos rostos do vídeo extraído. Acesse está pasta e apague as imagens ruins, imagens borradas dos rostos, ou rostos que não forem da pessoa que deseja por exemplo.

taeyeon face
Taeyeon face
Agora é necessário um vídeo para que o rosto extraído acima apareça nele e claro não utilizaremos vídeos impróprios. Repetiremos o mesmo processo de extração de imagens com o ffmpeg e colaremos as novas imagens dentro da pasta data_A. Mas em vez de utilizar 0.5 frames por segundo, vamos utilizar a quantidade de frames do vídeo.. clique com o botão direito sobre o vídeo e depois em 'propriedades', depois na aba 'Detalhes' descubra a taxa de quadros por segundos do vídeo e em vez de usar 0.5 no comando do ffmpeg... utilize o valor que aparecer lá.. no exemplo da imagem abaixo foi de 29.95 .


Depois copie as imagens para a pasta "data_A" e repita o processo com o programa FakeApp em que na aba "Extract" extraímos os rostos.

Dentro da pasta "aligned" em "data_A" as imagens que não são de rostos ou que estão ruins devem ser apagadas assim como fizemos em "data_B".

Agora é hora de começar o treinamento, na aba "Train" do programa. Antes disto, acesse a pasta "fakes" onde contém as pasta "data_A" e "data_B" e então crie uma pasta chamada "model".

Depois acesse a pasta "FakeApp" onde contém o programa, e acesse uma pasta também chamada "model", dentro dela copie todos os arquivos e cole na pasta "model" que você criou dentro de "fakes".

Agora no programa, na aba "Train" preencha os campos com o caminho para a pasta model, também para a pasta "data_A" e "data_B", e caso use o processador em vez de placa de vídeo, altere de GPU para CPU no campo "Processor". Deixe os outros campos como estão e aperte "Start".
*Se você possui uma GTX1070 ou 1080 você pode alterar aumentando o campo batch por números que sejam potencias de 2 e o campo nodes para 1024, assim obtendo melhor resultados no treinamento.

Uma janela do prompt de comando abrirá e demorará um pouco até começar aparecer mensagens na tela. Se tudo estiver certo, uma janela com um preview do que o software está fazendo aparecerá como ilustra as imagens abaixo:


Note que quanto mais próximo de zero o valor de "Loss", é um momento ideal para finalizar o treinamento clicando na janela de preview e depois apertando a letra "q".. demorará um pouco até tudo ser salvo. *Como ilustra a imagem abaixo, quanto mais nítido, bonito... estiver o resultado da terceira coluna, é sinal que já se passou tempo suficiente de treinamento.


Feito isto, é hora de juntar os rostos nas imagens para depois converter as imagens em vídeo. Para isto, no programa FakeApp clique na aba "Convert". 


Em "Model" coloque o caminho para a pasta "model", em "Data" coloque o caminho para a pasta "data_A". As outras opções deixe como estão e em "Processor" escreva CPU caso utilize processador ou deixe GPU caso utilize placa de vídeo. Aperte "Start" e aguarde o processo terminar.

Uma nova pasta chamada "merged" aparecerá dentro da pasta "data_A", lá conterá as imagens com rostos modificados.
Como cada imagem é um frame de vídeo, agora basta juntar as imagens para que um vídeo com o rosto modificado seja renderizado. Para isto copie todas as imagens que estão dentro da pasta merged e cole dentro da pasta do ffmpeg que estão no seu disco local (antes apague as imagens que estiverem na pasta do ffmpeg para não ficar bagunçado), depois abra o terminal e acesse a pasta do ffmpeg. O comando para juntar as imagens em um vídeo é o seguinte:

ffmpeg -f image2 -i img%04d.png -vcodec libx264 -crf 24 -pix_fmt yuv420p nome-do-video.mp4

Note que "img%04d.png" é o nome das imagens, ou seja se uma imagem sua tem o nome de video0001 então altere o trecho do código para "video%04d.png" onde o número 4 é a quantidade de casas numéricas após a palavra 'video'.



Agora é só abrir o vídeo e apreciar o que o aprendizado de máquina pode fazer.

Abaixo tem um gif de como ficou nosso teste com o FakeApp:


Um detalhe importante para que o resultado deste experimento fique bem próximo a de um vídeo real (coisa que não aconteceu no gif acima), é que é necessário de imagens de rostos em diferentes posições, luzes, ângulos, maquiagens, expressões - ou seja mais de mil imagens seria ainda pouco. E também como nós utilizamos o método apenas para escrever este tutorial, não tivemos tempo de deixar nossas máquina processando por horas as imagens na parte de treinamento.

Fizemos um outro teste com o rosto da atriz Jennifer Aniston (pré-alinhado, você pode encontrar este tipo de arquivo na página Facesets, clicando aqui [comunidade banida] - no caso basta colar o conteúdo na pasta data_B e usar o arquivo model que baixou junto) em cima do rosto da cantora sul coreana Irene (kpop). Abaixo você confere um trecho do vídeo original em formato gif e o trecho modificado:



Listaremos abaixo alguns erros e dúvidas comuns durante o processo:

-Não recomendo a utilização de acentuação ou outros caracteres em pastas, nomes de arquivos etc.

Erros na aba "Extract"

-Se você receber um erro de "from torch._C import *" significa que seu Visual C++ Redistributable packages está desatualizado. Portanto pesquise no Google por "vc redist" e baixe e instale o pacote.
-Se você receber um erro de "error while calling cudaMalloc() reason: out of memory" é porque você está usando imagens muito grandes, procure diminuir a qualidade do vídeo que está extraindo as imagens para ter imagens menores.

Erros na aba "Train"

-Se você receber um erro de "AssertionError in image_augmentation.py" significa que está treinando imagens de tamanho errado, confira se as imagens tem o tamanho de 256x256 criadas pelo Align Tool.

-Se o arquivo de log do "Train" tiver a mensagem "Missing cudart_64.dll" é porque você está com a versão errada do CUDA instalada.

-Se o arquivo de log do "Train" tiver a mensagem "MemoryError train.py line 60/line 61" provavelmente você está usando muitas imagens e sua GPU não está aguentando, umas 500 já é significante.

- Mensagem "OOM when allocating tensor with shape [W, X, Y, Z]" significa que 
o modelo atual é muito intensivo para sua placa de vídeo. Tente usar a seguinte configuração: batch=16, layers=4 e reduza os nodes em potencia de 2 (512, 256, 128...). Em placas de vídeos com 2GB alguns usuários conseguiram rodar na seguinte configuração: batch=64, layers=1, nodes=128. Se não resolver é porque sua placa de vídeo possui menos de 4GB de RAM.. portanto altere o campo "Processor" de GPU para CPU e use seu processador para fazer a tarefa.

Para mais informações sobre a ferramenta visite uma página no Reddit, clicando aqui!  [comunidade banida] .

No momento em que finalizo este artigo a versão 2.1 foi lançada! E agora ele tem até site, www.fakeapp.org . Dei uma olhada na ferramenta antes de publicar o artigo e vi que apenas facilitaram o processo. Portanto se você entendeu como funciona a ferramenta em sua versão 1.1, não terá dificuldades na utilização da nova versão!

Na primeira aba da versão 2.1 temos "Get Dataset" onde é que você aponta o endereço do vídeo que seria extraído as imagens e também os rostos (sim, o programa faz os 2 processos de uma vez).

Na segunda aba, em "Train" temos o mesmo processo apresentado para a versão 1.1 . E na aba "Create" facilita na hora de gerar o vídeo (sim, o processo do ffmpeg foi automatizado).

Gostou? Compartilhe com seus amigos e alerte eles sobre publicar muitas fotos por ai na internet.. afinal você pode virar a próxima estrela porno sem saber.

Fontes:

30 janeiro 2018


No episódio 9 da segunda temporada de Mr Robot, vemos Darlene ouvindo o que os chineses da Dark Army estão falando depois de terem seus smartphones infectados, mas como ela não sabe Chinês.. teve que utilizar de uma ferramenta para traduzir em tempo real o que eles estavam falando.


A ferramenta utilizada pela fsociety foi um site chamado realtimetranslation.net (tradução em tempo real .net), infelizmente o site é apenas fictício, ou seja, foi criado apenas para fazer algum sentido no episódio da série. Se você for em "terms of use" do site, você verá que será direcionado para um site da emissora oficial da série nos EUA.



Bom, sabemos que existem alguns serviços de tradução em tempo real como em conversas do Skype. Mas eles não são tão interessante como a gambiarra que demonstraremos no vídeo abaixo:



Como avisado no tempo 2:28 do vídeo, se você não tem 2 saída de áudio.. por exemplo um para caixas de som e outra para fones de ouvidos, deixe desmarcado a opção "escutar dispositivo", pois está opção serve para que o áudio que for para a caixa de som seja também emitido no fone de ouvido, pois apenas o áudio da caixa de som que será identificado como microfone na opção mixagem estéreo.


Atualizado em 31/01/2018: Como pedido pelos nossos seguidores, o tutorial abaixo é para distribuições Linux.

- Abra seu terminal e dê um: apt-get update
- Em seguida instale o pavucontrol: apt-get install pavucontrol
- Depois, procure pelo pulseaudio em seu sistema
- Abra o PulseAudio e acesse a aba "Input Devices" (1).
- Em seguida selecione "All Input Devices" (2) e depois marque a opção (3) "Monitor of Built-in Audio Analog Stereo".

-  Abra a aba "Recording" (1).
- Selecione a opção "Monitor of Built-in Audio Analog Stereo" (2).
- Não sei o motivo mas a versão do Firefox presente no Kali não permite ao Google Tradutor ativar o microfone, portanto opte por instalar o Google Chrome (clique aqui e saiba como), ou acesse algum site para testar se a configuração está funcionando.

Para testar, colocamos para rodar um vídeo qualquer no Youtube, em seguida visitamos o site webcammictest.com e clicamos em "check a microphone", depois selecionamos o dispositivo de microfone como ilustra a imagem abaixo. 

*Caso o falso microfone não esteja funcionando é porque a opção "Monitor of Built-in Audio Analog Stereo" não está selecionada em "Recording".

Curtiu? Se inscreva no canal! youtube.com/limontec

27 janeiro 2018

Se você gosta de assistir kdrama e não encontra aquele episódio gratuito legendado nos principais sites de streaming o jeito é recorrer a alternativas. 

Para baixar o episódio do seu dorama coreano favorito, basta acessar o site que indexa arquivos torrent mais popular da ásia, o TorrentKim - clique aqui para acessar. Dentro do site, pesquise onde está escrito "검색:" pelo nome do drama  (em coreano) e o número do episódio, exemplo: "로봇이 아니야 E30" que significa "I'm not robot episódio 30".
O próximo passo é abrir o link encontrado, nele você encontrará o MagNet link... um tipo de endereço que permite você rodar o arquivo em programas de streaming como Popcorn Time. Portanto copie este link e cole no Popcorn Time caso deseja assistir como se fosse streaming ou se preferir cole em um programa de download de torrent como o utorrent para armazenar o arquivo de vídeo no computador. Caso não saiba como baixar o Popcorn Time, clique aqui.

Com o vídeo baixado ou pronto para rodar no popcorn time, agora é hora de procurar pela legenda. Felizmente é fácil encontrar legendas caso o drama seja exibido nos principais serviços de streaming disponíveis em português, para isto procure pelo drama em serviços como dramafever ou viki e copie o link do episódio que pretende assistir. Depois disso acesse o site downsub.com e cole o link do episódio e em seguida aperte 'download'.

Então aparecerá uma lista de idiomas para download, escolha 'Portuguese' para baixar o arquivo de legenda em português.

Agora é só colocar a legenda no vídeo e pronto. Mas se notar que está dessincronizado, baixe e instale o programa Aegisub, clique aqui para baixar.  

Com ele instalado, abra o arquivo de legenda com ele. Depois clique em algum trecho da legenda e aperte ctrl + a para selecionar todas as linhas. Em seguida aperte ctrl + i para abrir a opção "ajustar tempos..." disponível na aba "temporização". Volte ao vídeo que pretende assistir, e anote o tempo em que algum personagem fala algo. De volta ao Aegisub é necessário que a primeira fala do personagem na legenda seja iniciada no tempo 0:00:00:00, para isto faça como na imagem abaixo:
Como ilustra a imagem acima, foi colocado o mesmo tempo da primeira fala também em "Time", feito isto e marcado as opções como em vermelho acima dê 'Ok', pois a primeira fala será zerada.

Em seguida aperte ctrl + i novamente e em "Time" coloque o tempo em que você anotou que ouvi a primeira fala do primeiro personagem no início do vídeo. Marque as outras opções como ilustra a imagem abaixo e dê 'ok'.

Feito tudo isso, a legenda já estará sincronizada com sucesso.. salve ela, abra ela no vídeo e assista feliz.

Este artigo tem o intuito apenas de compartilhar conhecimento, nós não responsabilizamos pelos seus atos ou os atos de nossos leitores.

20 janeiro 2018


Lembram do artigo "Internet de graça no Android - HTTP Injector como configurar do zero", pois então.. o método ainda funciona perfeitamente. Alguns usuários podem não conseguir pois não sabem criar um payload (gerador de carga) que funcione.

Portanto se você tem um arquivo .ehi que achou na internet e funciona mas está bloqueado (impede você de ver as configurações), você pode copiar o payload dele e montar sua própria ehi. 

-Mas o arquivo ta bloqueado...

-Não, mais!

Se seu aparelho possui root e xposed (ou pesquise no Google como fazer root e instalar o xposed no modelo do seu smartphone), basta instalar o apk EhiOpener e ativá-lo no xposed. 

Para baixar o apk* acesse o canal do telegram OlokoCC clicando aqui.

*ehiOpener v0.4.5 - Suporte para 4.2.3 build 71.

Segundo o responsável pelo módulo (apk):


Sorry for the delay /// Desculpe pela demora Before releasing the next version, I have a warning/information: Antes de publicar a nova versão, eu tenho um aviso galera: I am NOT selling the modules and I NEVER will. Eu NÃO estou vendendo os módulos, e eu NUNCA vou fazer isso.

Depois de instalado e ativado, reinicie seu smartphone - se não sabe ativar um módulo no XPOSED... pesquise no Google.



Depois de reiniciar, abra o HTTP Injector com algum arquivo .ehi nele. Então pressione e fique segurando o botão iniciar até abrir uma janela como o da imagem abaixo:


*alguns campos foram censurados pela nossa equipe.

Como podem observar na imagem acima, foi revelado o servidor SSH, nome de usuário e senha deste servidor, o proxy e o tão cobiçado payload. Portando, agora você pode usar o mesmo payload e criar um ehi sua com outro servidor SSH e proxy.. afinal não é bom confiar em conexões de terceiros.

-Onde colo o payload encontrado? 
-Cole em "texto de conexão"


Como ilustra a imagem acima, além de colar o payload e configurar o SSH (clicando aqui, explica como configurar), é necessário que adicione um proxy em 'proxy remoto' e marque a caixinha 'DNS'. Feito tudo isso aperte "INICIAR" e divirta-se.

É bom lembrar que se conectar a Proxy grátuito ou desconhecido pode ser perigoso uma vez que seus dados trafegaram por esta rede com ou sem proteção. E como dizem, nada é de graça.

O artigo acima tem o intuito apenas de compartilhar conhecimento, ao ler o artigo acima você concorda que nós não nos responsabilizamos pelos seus atos ou de nossos leitores.








Please Donate To Bitcoin Address: [[address]]





Donation of [[value]] BTC Received. Thank You.


[[error]]