mirror of
https://github.com/HackTricks-wiki/hacktricks-cloud.git
synced 2026-02-04 19:11:41 -08:00
Translated ['src/README.md', 'src/banners/hacktricks-training.md', 'src/
This commit is contained in:
@@ -4,45 +4,44 @@
|
||||
|
||||
<figure><img src="../images/CLOUD-logo-letters.svg" alt=""><figcaption></figcaption></figure>
|
||||
|
||||
## Basic Methodology
|
||||
## Podstawowa Metodologia
|
||||
|
||||
Each cloud has its own peculiarities but in general there are a few **common things a pentester should check** when testing a cloud environment:
|
||||
Każda chmura ma swoje własne szczególności, ale ogólnie istnieje kilka **wspólnych rzeczy, które pentester powinien sprawdzić** podczas testowania środowiska chmurowego:
|
||||
|
||||
- **Benchmark checks**
|
||||
- This will help you **understand the size** of the environment and **services used**
|
||||
- It will allow you also to find some **quick misconfigurations** as you can perform most of this tests with **automated tools**
|
||||
- **Services Enumeration**
|
||||
- You probably won't find much more misconfigurations here if you performed correctly the benchmark tests, but you might find some that weren't being looked for in the benchmark test.
|
||||
- This will allow you to know **what is exactly being used** in the cloud env
|
||||
- This will help a lot in the next steps
|
||||
- **Check exposed assets**
|
||||
- This can be done during the previous section, you need to **find out everything that is potentially exposed** to the Internet somehow and how can it be accessed.
|
||||
- Here I'm taking **manually exposed infrastructure** like instances with web pages or other ports being exposed, and also about other **cloud managed services that can be configured** to be exposed (such as DBs or buckets)
|
||||
- Then you should check **if that resource can be exposed or not** (confidential information? vulnerabilities? misconfigurations in the exposed service?)
|
||||
- **Check permissions**
|
||||
- Here you should **find out all the permissions of each role/user** inside the cloud and how are they used
|
||||
- Too **many highly privileged** (control everything) accounts? Generated keys not used?... Most of these check should have been done in the benchmark tests already
|
||||
- If the client is using OpenID or SAML or other **federation** you might need to ask them for further **information** about **how is being each role assigned** (it's not the same that the admin role is assigned to 1 user or to 100)
|
||||
- It's **not enough to find** which users has **admin** permissions "\*:\*". There are a lot of **other permissions** that depending on the services used can be very **sensitive**.
|
||||
- Moreover, there are **potential privesc** ways to follow abusing permissions. All this things should be taken into account and **as much privesc paths as possible** should be reported.
|
||||
- **Check Integrations**
|
||||
- It's highly probably that **integrations with other clouds or SaaS** are being used inside the cloud env.
|
||||
- For **integrations of the cloud you are auditing** with other platform you should notify **who has access to (ab)use that integration** and you should ask **how sensitive** is the action being performed.\
|
||||
For example, who can write in an AWS bucket where GCP is getting data from (ask how sensitive is the action in GCP treating that data).
|
||||
- For **integrations inside the cloud you are auditing** from external platforms, you should ask **who has access externally to (ab)use that integration** and check how is that data being used.\
|
||||
For example, if a service is using a Docker image hosted in GCR, you should ask who has access to modify that and which sensitive info and access will get that image when executed inside an AWS cloud.
|
||||
- **Sprawdzanie standardów**
|
||||
- To pomoże Ci **zrozumieć rozmiar** środowiska i **używane usługi**
|
||||
- Pozwoli Ci to również znaleźć kilka **szybkich błędów konfiguracyjnych**, ponieważ większość tych testów można przeprowadzić za pomocą **automatycznych narzędzi**
|
||||
- **Enumaracja usług**
|
||||
- Prawdopodobnie nie znajdziesz tutaj wielu dodatkowych błędów konfiguracyjnych, jeśli poprawnie przeprowadziłeś testy standardów, ale możesz znaleźć niektóre, które nie były brane pod uwagę w teście standardów.
|
||||
- To pozwoli Ci wiedzieć **co dokładnie jest używane** w środowisku chmurowym
|
||||
- To bardzo pomoże w kolejnych krokach
|
||||
- **Sprawdź wystawione zasoby**
|
||||
- Można to zrobić podczas poprzedniej sekcji, musisz **dowiedzieć się, co jest potencjalnie wystawione** w jakiś sposób na Internet i jak można to uzyskać.
|
||||
- Tutaj mam na myśli **ręcznie wystawioną infrastrukturę**, taką jak instancje z stronami internetowymi lub innymi portami, które są wystawione, a także inne **usługi zarządzane w chmurze, które mogą być skonfigurowane** do wystawienia (takie jak bazy danych lub kosze)
|
||||
- Następnie powinieneś sprawdzić **czy ten zasób może być wystawiony czy nie** (informacje poufne? luki? błędy konfiguracyjne w wystawionej usłudze?)
|
||||
- **Sprawdź uprawnienia**
|
||||
- Tutaj powinieneś **dowiedzieć się o wszystkich uprawnieniach każdego roli/użytkownika** w chmurze i jak są one używane
|
||||
- Zbyt **wiele wysoko uprzywilejowanych** (kontrolujących wszystko) kont? Wygenerowane klucze, które nie są używane?... Większość tych sprawdzeń powinna być już wykonana w testach standardów
|
||||
- Jeśli klient korzysta z OpenID lub SAML lub innej **federacji**, możesz potrzebować poprosić ich o dodatkowe **informacje** na temat **jak każda rola jest przypisywana** (to nie to samo, co przypisanie roli administratora do 1 użytkownika lub do 100)
|
||||
- **Nie wystarczy znaleźć**, którzy użytkownicy mają **uprawnienia administratora** "\*:\*". Istnieje wiele **innych uprawnień**, które w zależności od używanych usług mogą być bardzo **wrażliwe**.
|
||||
- Co więcej, istnieją **potencjalne ścieżki privesc**, które można śledzić, nadużywając uprawnień. Wszystkie te rzeczy powinny być brane pod uwagę, a **jak najwięcej ścieżek privesc powinno być zgłoszonych**.
|
||||
- **Sprawdź integracje**
|
||||
- Jest bardzo prawdopodobne, że **integracje z innymi chmurami lub SaaS** są używane w środowisku chmurowym.
|
||||
- Dla **integracji chmury, którą audytujesz** z inną platformą powinieneś powiadomić **kto ma dostęp do (nadużywania) tej integracji** i powinieneś zapytać **jak wrażliwa** jest wykonywana akcja.\
|
||||
Na przykład, kto może pisać w koszu AWS, z którego GCP pobiera dane (zapytaj, jak wrażliwa jest akcja w GCP w związku z tymi danymi).
|
||||
- Dla **integracji wewnątrz chmury, którą audytujesz** z zewnętrznych platform, powinieneś zapytać **kto ma dostęp zewnętrzny do (nadużywania) tej integracji** i sprawdzić, jak te dane są używane.\
|
||||
Na przykład, jeśli usługa korzysta z obrazu Dockera hostowanego w GCR, powinieneś zapytać, kto ma dostęp do jego modyfikacji i jakie wrażliwe informacje oraz dostęp uzyska ten obraz po uruchomieniu w chmurze AWS.
|
||||
|
||||
## Multi-Cloud tools
|
||||
## Narzędzia Multi-Cloud
|
||||
|
||||
There are several tools that can be used to test different cloud environments. The installation steps and links are going to be indicated in this section.
|
||||
Istnieje kilka narzędzi, które można wykorzystać do testowania różnych środowisk chmurowych. Kroki instalacji i linki będą wskazane w tej sekcji.
|
||||
|
||||
### [PurplePanda](https://github.com/carlospolop/purplepanda)
|
||||
|
||||
A tool to **identify bad configurations and privesc path in clouds and across clouds/SaaS.**
|
||||
Narzędzie do **identyfikacji złych konfiguracji i ścieżek privesc w chmurach i między chmurami/SaaS.**
|
||||
|
||||
{{#tabs }}
|
||||
{{#tab name="Install" }}
|
||||
|
||||
```bash
|
||||
# You need to install and run neo4j also
|
||||
git clone https://github.com/carlospolop/PurplePanda
|
||||
@@ -54,29 +53,25 @@ export PURPLEPANDA_NEO4J_URL="bolt://neo4j@localhost:7687"
|
||||
export PURPLEPANDA_PWD="neo4j_pwd_4_purplepanda"
|
||||
python3 main.py -h # Get help
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
|
||||
{{#tab name="GCP" }}
|
||||
|
||||
```bash
|
||||
export GOOGLE_DISCOVERY=$(echo 'google:
|
||||
- file_path: ""
|
||||
|
||||
- file_path: ""
|
||||
service_account_id: "some-sa-email@sidentifier.iam.gserviceaccount.com"' | base64)
|
||||
service_account_id: "some-sa-email@sidentifier.iam.gserviceaccount.com"' | base64)
|
||||
|
||||
python3 main.py -a -p google #Get basic info of the account to check it's correctly configured
|
||||
python3 main.py -e -p google #Enumerate the env
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
{{#endtabs }}
|
||||
|
||||
### [Prowler](https://github.com/prowler-cloud/prowler)
|
||||
|
||||
It supports **AWS, GCP & Azure**. Check how to configure each provider in [https://docs.prowler.cloud/en/latest/#aws](https://docs.prowler.cloud/en/latest/#aws)
|
||||
|
||||
Obsługuje **AWS, GCP i Azure**. Sprawdź, jak skonfigurować każdego dostawcę w [https://docs.prowler.cloud/en/latest/#aws](https://docs.prowler.cloud/en/latest/#aws)
|
||||
```bash
|
||||
# Install
|
||||
pip install prowler
|
||||
@@ -91,14 +86,12 @@ prowler aws --profile custom-profile [-M csv json json-asff html]
|
||||
prowler <provider> --list-checks
|
||||
prowler <provider> --list-services
|
||||
```
|
||||
|
||||
### [CloudSploit](https://github.com/aquasecurity/cloudsploit)
|
||||
|
||||
AWS, Azure, Github, Google, Oracle, Alibaba
|
||||
|
||||
{{#tabs }}
|
||||
{{#tab name="Install" }}
|
||||
|
||||
{{#tab name="Instalacja" }}
|
||||
```bash
|
||||
# Install
|
||||
git clone https://github.com/aquasecurity/cloudsploit.git
|
||||
@@ -107,16 +100,13 @@ npm install
|
||||
./index.js -h
|
||||
## Docker instructions in github
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
|
||||
{{#tab name="GCP" }}
|
||||
|
||||
```bash
|
||||
## You need to have creds for a service account and set them in config.js file
|
||||
./index.js --cloud google --config </abs/path/to/config.js>
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
{{#endtabs }}
|
||||
|
||||
@@ -125,8 +115,7 @@ npm install
|
||||
AWS, Azure, GCP, Alibaba Cloud, Oracle Cloud Infrastructure
|
||||
|
||||
{{#tabs }}
|
||||
{{#tab name="Install" }}
|
||||
|
||||
{{#tab name="Instalacja" }}
|
||||
```bash
|
||||
mkdir scout; cd scout
|
||||
virtualenv -p python3 venv
|
||||
@@ -135,24 +124,21 @@ pip install scoutsuite
|
||||
scout --help
|
||||
## Using Docker: https://github.com/nccgroup/ScoutSuite/wiki/Docker-Image
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
|
||||
{{#tab name="GCP" }}
|
||||
|
||||
```bash
|
||||
scout gcp --report-dir /tmp/gcp --user-account --all-projects
|
||||
## use "--service-account KEY_FILE" instead of "--user-account" to use a service account
|
||||
|
||||
SCOUT_FOLDER_REPORT="/tmp"
|
||||
for pid in $(gcloud projects list --format="value(projectId)"); do
|
||||
echo "================================================"
|
||||
echo "Checking $pid"
|
||||
mkdir "$SCOUT_FOLDER_REPORT/$pid"
|
||||
scout gcp --report-dir "$SCOUT_FOLDER_REPORT/$pid" --no-browser --user-account --project-id "$pid"
|
||||
echo "================================================"
|
||||
echo "Checking $pid"
|
||||
mkdir "$SCOUT_FOLDER_REPORT/$pid"
|
||||
scout gcp --report-dir "$SCOUT_FOLDER_REPORT/$pid" --no-browser --user-account --project-id "$pid"
|
||||
done
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
{{#endtabs }}
|
||||
|
||||
@@ -160,17 +146,14 @@ done
|
||||
|
||||
{{#tabs }}
|
||||
{{#tab name="Install" }}
|
||||
Download and install Steampipe ([https://steampipe.io/downloads](https://steampipe.io/downloads)). Or use Brew:
|
||||
|
||||
Pobierz i zainstaluj Steampipe ([https://steampipe.io/downloads](https://steampipe.io/downloads)). Lub użyj Brew:
|
||||
```
|
||||
brew tap turbot/tap
|
||||
brew install steampipe
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
|
||||
{{#tab name="GCP" }}
|
||||
|
||||
```bash
|
||||
# Install gcp plugin
|
||||
steampipe plugin install gcp
|
||||
@@ -183,13 +166,11 @@ steampipe dashboard
|
||||
# To run all the checks from rhe cli
|
||||
steampipe check all
|
||||
```
|
||||
|
||||
<details>
|
||||
|
||||
<summary>Check all Projects</summary>
|
||||
|
||||
In order to check all the projects you need to generate the `gcp.spc` file indicating all the projects to test. You can just follow the indications from the following script
|
||||
<summary>Sprawdź wszystkie projekty</summary>
|
||||
|
||||
Aby sprawdzić wszystkie projekty, musisz wygenerować plik `gcp.spc`, wskazując wszystkie projekty do przetestowania. Możesz po prostu postępować zgodnie z instrukcjami z poniższego skryptu.
|
||||
```bash
|
||||
FILEPATH="/tmp/gcp.spc"
|
||||
rm -rf "$FILEPATH" 2>/dev/null
|
||||
@@ -197,32 +178,30 @@ rm -rf "$FILEPATH" 2>/dev/null
|
||||
# Generate a json like object for each project
|
||||
for pid in $(gcloud projects list --format="value(projectId)"); do
|
||||
echo "connection \"gcp_$(echo -n $pid | tr "-" "_" )\" {
|
||||
plugin = \"gcp\"
|
||||
project = \"$pid\"
|
||||
plugin = \"gcp\"
|
||||
project = \"$pid\"
|
||||
}" >> "$FILEPATH"
|
||||
done
|
||||
|
||||
# Generate the aggragator to call
|
||||
echo 'connection "gcp_all" {
|
||||
plugin = "gcp"
|
||||
type = "aggregator"
|
||||
connections = ["gcp_*"]
|
||||
plugin = "gcp"
|
||||
type = "aggregator"
|
||||
connections = ["gcp_*"]
|
||||
}' >> "$FILEPATH"
|
||||
|
||||
echo "Copy $FILEPATH in ~/.steampipe/config/gcp.spc if it was correctly generated"
|
||||
```
|
||||
|
||||
</details>
|
||||
|
||||
To check **other GCP insights** (useful for enumerating services) use: [https://github.com/turbot/steampipe-mod-gcp-insights](https://github.com/turbot/steampipe-mod-gcp-insights)
|
||||
Aby sprawdzić **inne informacje GCP** (przydatne do enumeracji usług) użyj: [https://github.com/turbot/steampipe-mod-gcp-insights](https://github.com/turbot/steampipe-mod-gcp-insights)
|
||||
|
||||
To check Terraform GCP code: [https://github.com/turbot/steampipe-mod-terraform-gcp-compliance](https://github.com/turbot/steampipe-mod-terraform-gcp-compliance)
|
||||
Aby sprawdzić kod Terraform GCP: [https://github.com/turbot/steampipe-mod-terraform-gcp-compliance](https://github.com/turbot/steampipe-mod-terraform-gcp-compliance)
|
||||
|
||||
More GCP plugins of Steampipe: [https://github.com/turbot?q=gcp](https://github.com/turbot?q=gcp)
|
||||
Więcej wtyczek GCP Steampipe: [https://github.com/turbot?q=gcp](https://github.com/turbot?q=gcp)
|
||||
{{#endtab }}
|
||||
|
||||
{{#tab name="AWS" }}
|
||||
|
||||
```bash
|
||||
# Install aws plugin
|
||||
steampipe plugin install aws
|
||||
@@ -246,29 +225,27 @@ cd steampipe-mod-aws-compliance
|
||||
steampipe dashboard # To see results in browser
|
||||
steampipe check all --export=/tmp/output4.json
|
||||
```
|
||||
Aby sprawdzić kod Terraform AWS: [https://github.com/turbot/steampipe-mod-terraform-aws-compliance](https://github.com/turbot/steampipe-mod-terraform-aws-compliance)
|
||||
|
||||
To check Terraform AWS code: [https://github.com/turbot/steampipe-mod-terraform-aws-compliance](https://github.com/turbot/steampipe-mod-terraform-aws-compliance)
|
||||
|
||||
More AWS plugins of Steampipe: [https://github.com/orgs/turbot/repositories?q=aws](https://github.com/orgs/turbot/repositories?q=aws)
|
||||
Więcej wtyczek AWS Steampipe: [https://github.com/orgs/turbot/repositories?q=aws](https://github.com/orgs/turbot/repositories?q=aws)
|
||||
{{#endtab }}
|
||||
{{#endtabs }}
|
||||
|
||||
### [~~cs-suite~~](https://github.com/SecurityFTW/cs-suite)
|
||||
|
||||
AWS, GCP, Azure, DigitalOcean.\
|
||||
It requires python2.7 and looks unmaintained.
|
||||
Wymaga python2.7 i wygląda na nieutrzymywane.
|
||||
|
||||
### Nessus
|
||||
|
||||
Nessus has an _**Audit Cloud Infrastructure**_ scan supporting: AWS, Azure, Office 365, Rackspace, Salesforce. Some extra configurations in **Azure** are needed to obtain a **Client Id**.
|
||||
Nessus ma skan _**Audit Cloud Infrastructure**_ wspierający: AWS, Azure, Office 365, Rackspace, Salesforce. Wymagane są dodatkowe konfiguracje w **Azure**, aby uzyskać **Client Id**.
|
||||
|
||||
### [**cloudlist**](https://github.com/projectdiscovery/cloudlist)
|
||||
|
||||
Cloudlist is a **multi-cloud tool for getting Assets** (Hostnames, IP Addresses) from Cloud Providers.
|
||||
Cloudlist to **narzędzie multi-cloud do pozyskiwania zasobów** (nazwy hostów, adresy IP) od dostawców chmury.
|
||||
|
||||
{{#tabs }}
|
||||
{{#tab name="Cloudlist" }}
|
||||
|
||||
```bash
|
||||
cd /tmp
|
||||
wget https://github.com/projectdiscovery/cloudlist/releases/latest/download/cloudlist_1.0.1_macOS_arm64.zip
|
||||
@@ -276,46 +253,40 @@ unzip cloudlist_1.0.1_macOS_arm64.zip
|
||||
chmod +x cloudlist
|
||||
sudo mv cloudlist /usr/local/bin
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
|
||||
{{#tab name="Second Tab" }}
|
||||
|
||||
{{#tab name="Druga zakładka" }}
|
||||
```bash
|
||||
## For GCP it requires service account JSON credentials
|
||||
cloudlist -config </path/to/config>
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
{{#endtabs }}
|
||||
|
||||
### [**cartography**](https://github.com/lyft/cartography)
|
||||
|
||||
Cartography is a Python tool that consolidates infrastructure assets and the relationships between them in an intuitive graph view powered by a Neo4j database.
|
||||
Cartography to narzędzie w Pythonie, które konsoliduje zasoby infrastruktury oraz relacje między nimi w intuicyjnym widoku graficznym zasilanym przez bazę danych Neo4j.
|
||||
|
||||
{{#tabs }}
|
||||
{{#tab name="Install" }}
|
||||
|
||||
```bash
|
||||
# Installation
|
||||
docker image pull ghcr.io/lyft/cartography
|
||||
docker run --platform linux/amd64 ghcr.io/lyft/cartography cartography --help
|
||||
## Install a Neo4j DB version 3.5.*
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
|
||||
{{#tab name="GCP" }}
|
||||
|
||||
```bash
|
||||
docker run --platform linux/amd64 \
|
||||
--volume "$HOME/.config/gcloud/application_default_credentials.json:/application_default_credentials.json" \
|
||||
-e GOOGLE_APPLICATION_CREDENTIALS="/application_default_credentials.json" \
|
||||
-e NEO4j_PASSWORD="s3cr3t" \
|
||||
ghcr.io/lyft/cartography \
|
||||
--neo4j-uri bolt://host.docker.internal:7687 \
|
||||
--neo4j-password-env-var NEO4j_PASSWORD \
|
||||
--neo4j-user neo4j
|
||||
--volume "$HOME/.config/gcloud/application_default_credentials.json:/application_default_credentials.json" \
|
||||
-e GOOGLE_APPLICATION_CREDENTIALS="/application_default_credentials.json" \
|
||||
-e NEO4j_PASSWORD="s3cr3t" \
|
||||
ghcr.io/lyft/cartography \
|
||||
--neo4j-uri bolt://host.docker.internal:7687 \
|
||||
--neo4j-password-env-var NEO4j_PASSWORD \
|
||||
--neo4j-user neo4j
|
||||
|
||||
|
||||
# It only checks for a few services inside GCP (https://lyft.github.io/cartography/modules/gcp/index.html)
|
||||
@@ -326,17 +297,15 @@ docker run --platform linux/amd64 \
|
||||
## Google Kubernetes Engine
|
||||
### If you can run starbase or purplepanda you will get more info
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
{{#endtabs }}
|
||||
|
||||
### [**starbase**](https://github.com/JupiterOne/starbase)
|
||||
|
||||
Starbase collects assets and relationships from services and systems including cloud infrastructure, SaaS applications, security controls, and more into an intuitive graph view backed by the Neo4j database.
|
||||
Starbase zbiera zasoby i relacje z usług i systemów, w tym infrastruktury chmurowej, aplikacji SaaS, kontroli bezpieczeństwa i innych, w intuicyjny widok graficzny wspierany przez bazę danych Neo4j.
|
||||
|
||||
{{#tabs }}
|
||||
{{#tab name="Install" }}
|
||||
|
||||
```bash
|
||||
# You are going to need Node version 14, so install nvm following https://tecadmin.net/install-nvm-macos-with-homebrew/
|
||||
npm install --global yarn
|
||||
@@ -359,44 +328,40 @@ docker build --no-cache -t starbase:latest .
|
||||
docker-compose run starbase setup
|
||||
docker-compose run starbase run
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
|
||||
{{#tab name="GCP" }}
|
||||
|
||||
```yaml
|
||||
## Config for GCP
|
||||
### Check out: https://github.com/JupiterOne/graph-google-cloud/blob/main/docs/development.md
|
||||
### It requires service account credentials
|
||||
|
||||
integrations:
|
||||
- name: graph-google-cloud
|
||||
instanceId: testInstanceId
|
||||
directory: ./.integrations/graph-google-cloud
|
||||
gitRemoteUrl: https://github.com/JupiterOne/graph-google-cloud.git
|
||||
config:
|
||||
SERVICE_ACCOUNT_KEY_FILE: "{Check https://github.com/JupiterOne/graph-google-cloud/blob/main/docs/development.md#service_account_key_file-string}"
|
||||
PROJECT_ID: ""
|
||||
FOLDER_ID: ""
|
||||
ORGANIZATION_ID: ""
|
||||
CONFIGURE_ORGANIZATION_PROJECTS: false
|
||||
- name: graph-google-cloud
|
||||
instanceId: testInstanceId
|
||||
directory: ./.integrations/graph-google-cloud
|
||||
gitRemoteUrl: https://github.com/JupiterOne/graph-google-cloud.git
|
||||
config:
|
||||
SERVICE_ACCOUNT_KEY_FILE: "{Check https://github.com/JupiterOne/graph-google-cloud/blob/main/docs/development.md#service_account_key_file-string}"
|
||||
PROJECT_ID: ""
|
||||
FOLDER_ID: ""
|
||||
ORGANIZATION_ID: ""
|
||||
CONFIGURE_ORGANIZATION_PROJECTS: false
|
||||
|
||||
storage:
|
||||
engine: neo4j
|
||||
config:
|
||||
username: neo4j
|
||||
password: s3cr3t
|
||||
uri: bolt://localhost:7687
|
||||
#Consider using host.docker.internal if from docker
|
||||
engine: neo4j
|
||||
config:
|
||||
username: neo4j
|
||||
password: s3cr3t
|
||||
uri: bolt://localhost:7687
|
||||
#Consider using host.docker.internal if from docker
|
||||
```
|
||||
|
||||
{{#endtab }}
|
||||
{{#endtabs }}
|
||||
|
||||
### [**SkyArk**](https://github.com/cyberark/SkyArk)
|
||||
|
||||
Discover the most privileged users in the scanned AWS or Azure environment, including the AWS Shadow Admins. It uses powershell.
|
||||
|
||||
Odkryj najbardziej uprzywilejowanych użytkowników w zeskanowanym środowisku AWS lub Azure, w tym AWS Shadow Admins. Używa powershell.
|
||||
```powershell
|
||||
Import-Module .\SkyArk.ps1 -force
|
||||
Start-AzureStealth
|
||||
@@ -405,18 +370,17 @@ Start-AzureStealth
|
||||
IEX (New-Object Net.WebClient).DownloadString('https://raw.githubusercontent.com/cyberark/SkyArk/master/AzureStealth/AzureStealth.ps1')
|
||||
Scan-AzureAdmins
|
||||
```
|
||||
|
||||
### [Cloud Brute](https://github.com/0xsha/CloudBrute)
|
||||
|
||||
A tool to find a company (target) infrastructure, files, and apps on the top cloud providers (Amazon, Google, Microsoft, DigitalOcean, Alibaba, Vultr, Linode).
|
||||
Narzędzie do znajdowania infrastruktury, plików i aplikacji firmy (cel) na czołowych dostawcach chmury (Amazon, Google, Microsoft, DigitalOcean, Alibaba, Vultr, Linode).
|
||||
|
||||
### [CloudFox](https://github.com/BishopFox/cloudfox)
|
||||
|
||||
- CloudFox is a tool to find exploitable attack paths in cloud infrastructure (currently only AWS & Azure supported with GCP upcoming).
|
||||
- It is an enumeration tool which is intended to compliment manual pentesting.
|
||||
- It doesn't create or modify any data within the cloud environment.
|
||||
- CloudFox to narzędzie do znajdowania wykorzystywalnych ścieżek ataku w infrastrukturze chmurowej (obecnie wspierane tylko AWS i Azure, GCP wkrótce).
|
||||
- Jest to narzędzie do enumeracji, które ma na celu uzupełnienie ręcznego pentestingu.
|
||||
- Nie tworzy ani nie modyfikuje żadnych danych w środowisku chmurowym.
|
||||
|
||||
### More lists of cloud security tools
|
||||
### Więcej list narzędzi do zabezpieczeń chmurowych
|
||||
|
||||
- [https://github.com/RyanJarv/awesome-cloud-sec](https://github.com/RyanJarv/awesome-cloud-sec)
|
||||
|
||||
@@ -448,14 +412,10 @@ azure-security/
|
||||
|
||||
### Attack Graph
|
||||
|
||||
[**Stormspotter** ](https://github.com/Azure/Stormspotter)creates an “attack graph” of the resources in an Azure subscription. It enables red teams and pentesters to visualize the attack surface and pivot opportunities within a tenant, and supercharges your defenders to quickly orient and prioritize incident response work.
|
||||
[**Stormspotter** ](https://github.com/Azure/Stormspotter)tworzy „graf ataku” zasobów w subskrypcji Azure. Umożliwia zespołom red i pentesterom wizualizację powierzchni ataku i możliwości pivotowania w obrębie najemcy, a także wspomaga obrońców w szybkim orientowaniu się i priorytetyzowaniu pracy związanej z odpowiedzią na incydenty.
|
||||
|
||||
### Office365
|
||||
|
||||
You need **Global Admin** or at least **Global Admin Reader** (but note that Global Admin Reader is a little bit limited). However, those limitations appear in some PS modules and can be bypassed accessing the features **via the web application**.
|
||||
Potrzebujesz **Global Admin** lub przynajmniej **Global Admin Reader** (ale zauważ, że Global Admin Reader jest nieco ograniczony). Jednak te ograniczenia pojawiają się w niektórych modułach PS i można je obejść, uzyskując dostęp do funkcji **za pośrednictwem aplikacji internetowej**.
|
||||
|
||||
{{#include ../banners/hacktricks-training.md}}
|
||||
|
||||
|
||||
|
||||
|
||||
|
||||
Reference in New Issue
Block a user